repo_id
stringlengths 5
115
| size
int64 590
5.01M
| file_path
stringlengths 4
212
| content
stringlengths 590
5.01M
|
|---|---|---|---|
UnWaitingGo/my-rcore
| 1,655
|
os/src/trap/trap.S
|
.altmacro
.macro SAVE_GP n
sd x\n, \n*8(sp)
.endm
.macro LOAD_GP n
ld x\n, \n*8(sp)
.endm
.section .text
.globl __alltraps
.globl __restore
.align 2
__alltraps:
#这一行之前 sp 指向用户栈, sscratch 指向内核
csrrw sp, sscratch, sp #现在 sp 指向内核栈, sscratch 指向用户栈。
addi sp, sp, -34*8 # 在内核栈上保存 Trap 上下文
# 保存通用寄存器
sd x1, 1*8(sp)
# 跳过 sp(x2), 我们会在后面保存
sd x3, 3*8(sp)
# 跳过保存 tp(x4), 应用不会使用它
# x5~x31 这 27 个通用寄存器我们通过类似循环的 .rept 每次使用 SAVE_GP 宏来保存
.set n, 5
.rept 27 #在 trap.S 开头加上 .altmacro 才能正常使用 .rept 命令
SAVE_GP %n
.set n, n+1
.endr
# 我们可以自由使用 t0/t1/t2 寄存器, 因为他们是在内核栈上保存
csrr t0, sstatus #我们将 CSR sstatus 和 sepc 的值分别读到寄存器 t0 和 t1 中然后保存到内核栈对应的位置上。
csrr t1, sepc
sd t0, 32*8(sp)
sd t1, 33*8(sp)
# 将用户栈上的 sscratch 的值读到寄存器 t2 并保存到内核栈上
csrr t2, sscratch
sd t2, 2*8(sp)
# 设置 trap_handler 的输入参数(cx: &mut TrapContext)
mv a0, sp #让寄存器 a0 指向内核栈的栈指针也就是我们刚刚保存的 Trap 上下文的地址
call trap_handler
__restore:
# 情况 1:通过__restore 启动应用程序
# 情况 2:处理完trap后返回用户模式(U 模式)
mv sp, a0
# 现在 sp-> 内核栈(已分配后),sscratch-> 用户栈
# 恢复 sstatus 和 sepc 寄存器
ld t0, 32*8(sp)
ld t1, 33*8(sp)
ld t2, 2*8(sp)
csrw sstatus, t0
csrw sepc, t1
csrw sscratch, t2
# 恢复除 sp/tp 之外的通用寄存器
ld x1, 1*8(sp)
ld x3, 3*8(sp)
.set n, 5
.rept 27
LOAD_GP %n
.set n, n+1
.endr
# 释放内核栈上的 TrapContext(陷阱上下文)
addi sp, sp, 34*8
# 现在 sp-> 内核栈,sscratch-> 用户栈
csrrw sp, sscratch, sp
sret #使用 sret 指令回到 U 特权级继续运行应用程序控制流。
|
uzeyirrr/uzeyiros
| 8,476
|
kernel/src/entry.S
|
// The rxv64 kernel starts executing in this file, which is linked with
// the kernel Rust code so that it can refer to kernel symbols such as
// main(). The boot block (bootasm.S and bootmain.c) jumps to `start`
// below.
// Multiboot header, for multiboot boot loaders like GNU Grub.
// http://www.gnu.org/software/grub/manual/multiboot/multiboot.html
//
// Using GRUB 2, you can boot xv6 from a file stored in a
// Linux file system by copying kernel or kernelmemfs to /boot
// and then adding this menu entry:
//
// menuentry "xv6" {
// insmod ext2
// set root='(hd0,msdos1)'
// set kernel='/boot/kernel'
// echo "Loading ${kernel}..."
// multiboot ${kernel} ${kernel}
// boot
// }
.set STACKSIZE, 4096
.set PAGESIZE, 4096
.set CR0_PE, 1 << 0
.set CR0_WP, 1 << 16
.set CR0_PG, 1 << 31
.set CR0_BOOT64, CR0_PE + CR0_WP + CR0_PG
.set CR4_PAE, 1 << 5
.set CR4_FSGSBASE, 1 << 16
.set CR4_BOOT, CR4_PAE + CR4_FSGSBASE
.set IA32_MSR_EFER, 0xc0000080
.set EFER_SCE, 1 << 0
.set EFER_LME, 1 << 8
.set EFER_NX, 1 << 11
.set EFER_BOOT_LO, EFER_SCE + EFER_LME + EFER_NX
.set EFER_BOOT_HI, 0x00000000
.set GDT_NULL, 0
.set GDT_CODE64, 1 << 3
.set GDT32_CODE, 2 << 3
.set GDT32_DATA, 3 << 3
.set SEG_READ, 1 << 41
.set SEG_WRITE, 1 << 42
.set SEG_CODE, 1 << 43
.set SEG_DATA, 0 << 43
.set SEG_ALWAYS1, 1 << 44
.set SEG_PRESENT, 1 << 47
.set SEG_LONG, 1 << 53
.set SEG32_DEFAULT, 1 << 54
.set SEG32_GRANULARITY, 1 << 55
.set SEG32_LIMIT, (0xF << 48) + 0xFFFF
.set SEG32_DEF, SEG32_DEFAULT + SEG32_GRANULARITY + SEG32_LIMIT
.set KERNBASE, 0xFFFF800000000000
.set MULTIBOOT1_MAGIC, 0x1BADB002
.set MULTIBOOT1_FLAGS, 1 << 1 // Provide memory map.
.section .text.boot
.balign 8
.globl multiboot1_header
multiboot1_header:
.int MULTIBOOT1_MAGIC
.int MULTIBOOT1_FLAGS
.int -(MULTIBOOT1_MAGIC + MULTIBOOT1_FLAGS)
.code32
.globl entry
entry:
cli
cld
movl $(bootstack - KERNBASE + STACKSIZE), %esp
movl $IA32_MSR_EFER, %ecx
movl $EFER_BOOT_LO, %eax
movl $EFER_BOOT_HI, %edx
wrmsr
movl %cr4, %eax
orl $CR4_BOOT, %eax
movl %eax, %cr4
movl $(entrypgtbl - KERNBASE), %eax
movl %eax, %cr3
movl $CR0_BOOT64, %eax
movl %eax, %cr0
nop
nop
lgdt (entrygdtdesc - KERNBASE)
ljmpl $GDT_CODE64, $(entry64 - KERNBASE)
.code64
entry64:
xorw %ax, %ax
movw %ax, %ds
movw %ax, %es
movw %ax, %fs
movw %ax, %gs
movw %ax, %ss
movabsq $(bootstack + STACKSIZE), %rsp
movabsq $1f, %rax
pushq %rax
ret
1:
// Call `main` in Rust code.
movq %rbx, %rdi
pushq $0
movq %rsp, %rbp
callq main
1: cli
hlt
jmp 1b
.balign 4096
.rodata
.set APENTRY, 0x7000
.set APPERCPU, 0x8000 - 24
.set APID, 0x8000 - 16
.set APSEMAPHORE, 0x8000 - 8
// While it may seem like this should be in a text section,
// it is deliberately not. AP entry code is explicitly copied
// to a page in low memory for execution, so as far as the rest
// of the kernel is concerned it's simply read-only data. We
// put it into .rodata so that it's mapped onto a non-executable
// page and the kernel cannot accidentally jump into it once it
// is running in Rust code on a real page table.
.globl apentry, eapentry
.code16
.balign 4096
apentry:
cli
cld
wbinvd
lgdtl (APENTRY + (apgdtdesc - apentry))
movl %cr0, %eax
orl $CR0_PE, %eax
movl %eax, %cr0
ljmpl $GDT32_CODE, $(APENTRY + (apentry32 - apentry))
.code32
apentry32:
movw $GDT32_DATA, %ax
movw %ax, %ds
movw %ax, %ss
movw %ax, %es
xorw %ax, %ax
movw %ax, %fs
movw %ax, %gs
movl $IA32_MSR_EFER, %ecx
movl $EFER_BOOT_LO, %eax
movl $EFER_BOOT_HI, %edx
wrmsr
movl %cr4, %eax
orl $CR4_BOOT, %eax
movl %eax, %cr4
movl $(entrypgtbl - KERNBASE), %eax
movl %eax, %cr3
movl $CR0_BOOT64, %eax
movl %eax, %cr0
nop
nop
ljmp $GDT_CODE64, $(APENTRY + (apentry64 - apentry))
.code64
apentry64:
xorw %ax, %ax
movw %ax, %ds
movw %ax, %es
movw %ax, %fs
movw %ax, %gs
movw %ax, %ss
movq APPERCPU, %rdi
movq APID, %rsi
movq APSEMAPHORE, %rdx
movq %rdi, %rsp
addq $4096, %rsp
movabsq $1f, %rax
pushq %rax
ret
1:
pushq $0
movq %rsp, %rbp
call mpenter
1: cli
hlt
jmp 1b
.balign 16
gdt:
// 0: Null segment
.quad 0
// 8: Kernel 64-bit code segment
.quad (SEG_READ + SEG_CODE + SEG_ALWAYS1 + SEG_PRESENT + SEG_LONG)
// 16: Kernel 32-bit code segment (for bootstrapping APs)
.quad (SEG_READ + SEG_CODE + SEG_ALWAYS1 + SEG_PRESENT + SEG32_DEF)
// 24: Kernel 32-bit data segment (for bootstrapping APs)
.quad (SEG_READ + SEG_WRITE + SEG_ALWAYS1 + SEG_PRESENT + SEG32_DEF)
egdt:
.skip 6
apgdtdesc:
.word egdt - gdt - 1
.long (APENTRY + gdt - apentry)
eapentry:
.balign 4096
.globl entrypgtbl
entrypgtbl:
.quad (entrypgtbl3 - KERNBASE) + (1<<1) + (1<<0)
.space (4096/2) - (1*8)
.quad (entrypgtbl3 - KERNBASE) + (1<<1) + (1<<0)
.space (4096/2) - (1*8)
.balign 4096
entrypgtbl3:
.quad (entrypgtbl2 - KERNBASE) + (1<<1) + (1<<0)
.space 4096 - 1*8
.balign 4096
entrypgtbl2:
.quad (0<<20) + (0<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (2<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (4<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (6<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (8<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (10<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (12<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (14<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (16<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (18<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (20<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (22<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (24<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (26<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (28<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (30<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (32<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (34<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (36<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (38<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (40<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (42<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (44<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (46<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (48<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (50<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (52<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (54<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (56<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (58<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (60<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (62<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (64<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (66<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (68<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (70<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (72<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (74<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (76<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (78<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (80<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (82<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (84<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (86<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (88<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (90<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (92<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (94<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (96<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (98<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (100<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (102<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (104<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (106<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (108<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (110<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (112<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (114<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (116<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (118<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (120<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (122<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (124<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.quad (126<<20) + (1<<63) + (1<<7) + (1<<1) + (1<<0)
.space 4096 - 64*8
.balign 16
.skip 6
entrygdtdesc:
.word egdt - gdt - 1
.long (gdt - KERNBASE)
.bss
.balign 4096
// Stack.
.globl bootstack
.comm bootstack, STACKSIZE
|
Vac011/rcore_c
| 2,218
|
code/os/src/trap/trap.S
|
.altmacro
.macro SAVE_GP n
sd x\n, \n*8(sp)
.endm
.macro LOAD_GP n
ld x\n, \n*8(sp)
.endm
.section .text.trampoline
.globl __alltraps
.globl __restore
.globl __alltraps_k
.globl __restore_k
.align 2
__alltraps:
csrrw sp, sscratch, sp
# now sp->*TrapContext in user space, sscratch->user stack
# save other general purpose registers
sd x1, 1*8(sp)
# skip sp(x2), we will save it later
sd x3, 3*8(sp)
# skip tp(x4), application does not use it
# save x5~x31
.set n, 5
.rept 27
SAVE_GP %n
.set n, n+1
.endr
# we can use t0/t1/t2 freely, because they have been saved in TrapContext
csrr t0, sstatus
csrr t1, sepc
sd t0, 32*8(sp)
sd t1, 33*8(sp)
# read user stack from sscratch and save it in TrapContext
csrr t2, sscratch
sd t2, 2*8(sp)
# load kernel_satp into t0
ld t0, 34*8(sp)
# load trap_handler into t1
ld t1, 36*8(sp)
# move to kernel_sp
ld sp, 35*8(sp)
# switch to kernel space
csrw satp, t0
sfence.vma
# jump to trap_handler
jr t1
__restore:
# a0: *TrapContext in user space(Constant); a1: user space token
# switch to user space
csrw satp, a1
sfence.vma
csrw sscratch, a0
mv sp, a0
# now sp points to TrapContext in user space, start restoring based on it
# restore sstatus/sepc
ld t0, 32*8(sp)
ld t1, 33*8(sp)
csrw sstatus, t0
csrw sepc, t1
# restore general purpose registers except x0/sp/tp
ld x1, 1*8(sp)
ld x3, 3*8(sp)
.set n, 5
.rept 27
LOAD_GP %n
.set n, n+1
.endr
# back to user stack
ld sp, 2*8(sp)
sret
.align 2
__alltraps_k:
addi sp, sp, -34*8
sd x1, 1*8(sp)
sd x3, 3*8(sp)
.set n, 5
.rept 27
SAVE_GP %n
.set n, n+1
.endr
csrr t0, sstatus
csrr t1, sepc
sd t0, 32*8(sp)
sd t1, 33*8(sp)
mv a0, sp
csrr t2, sscratch
jalr t2
__restore_k:
ld t0, 32*8(sp)
ld t1, 33*8(sp)
csrw sstatus, t0
csrw sepc, t1
ld x1, 1*8(sp)
ld x3, 3*8(sp)
.set n, 5
.rept 27
LOAD_GP %n
.set n, n+1
.endr
addi sp, sp, 34*8
sret
|
ValentinoKvolek/Universidad
| 2,358
|
Arquitectura_de_Computadoras/practicas/Practica 5/lec_pros_num.s
|
.data
CONTROL: .word 0x10000
DATA: .word 0x10008
men: .asciiz "Debe ingresar un numero"
men2: .asciiz "la cantida de impares fue : "
a: .byte 0
bb: .byte 10
max: .byte 20
tabla: .space 20
.code
daddi $sp,$0,0x400
ld $s0, CONTROL($zero) #guardo control en s0
ld $s1, DATA($zero) #guardo data en s1
daddi $s2,$0,0 #contador para long y despla
daddi $s3,$0,0
lazito: jal INGRESAR_NUMERO
sb $v0,tabla($s2)
daddi $s2,$s2,1
dadd $s3,$s3,$v0
ld $t7,max($zero)
slt $t0,$s3,$t7
beqz $t0,fin2
j lazito
fin2:
daddi $a0, $0, tabla # pongo en a0 la direccion de tabla
dadd $a1,$0,$s2 # en a1 esta mi longitud(cantidad de elemento a contar)
jal PROCESAR_NUMEROS
halt
INGRESAR_NUMERO:
daddi $sp,$sp,-8
sd $ra, 0($sp) # me guardo la direccion de retorno
lazo:
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($s0) #control == 8
ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2
daddi $a0,$t2,0 # pongo el numero ingresado en a0
ld $a1,a($zero) # a1 = 0
ld $a2,bb($zero) # a2 = 10
jal ENTRE
bnez $v0,imprimir # v0 = 1
daddi $t2, $zero , men
sd $t2, 0 ($s1)
daddi $t2, $zero, 4
sd $t2, 0($s0)
j lazo
imprimir:
daddi $v0,$a0,0
ld $ra, 0($sp)
daddi $sp,$sp,8
jr $ra
# a0 = num, a1:= 0, a2 = 10.
# B<N<A = 1 si no 0
ENTRE:
slt $t0, $a1, $a0 # Si B<N
beqz $t0,fin
slt $t0,$a0,$a2 #si N<A
beqz $t0,fin
fin: dadd $v0,$0,$t0 #t0 puede ser 1 0 0 dependiendo n
jr $ra
#a0 la direccion de TABLA
#a1 recibe la cantidad de elementos a contar
PROCESAR_NUMEROS:
daddi $t0, $0,0 # desplamiento
daddi $t5,$0,0 # contador
daddi $sp,$sp,-8
sd $ra, 0($sp) # me guardo la direccion de retorno
bucle:
beqz $a1, fin3
dadd $t1,$t0,$a0 #sumando la ubicacion de la tabla mas el indice para desplazarme
lb $a2,0($t1) #pongo el numero a2
daddi $a1,$a1,-1
daddi $t0,$t0,1
jal ES_IMPAR
dadd $t5,$t5,$v0
par:
j bucle
fin3:
daddi $t2, $zero , men2
sd $t2, 0 ($s1)
daddi $t2, $zero, 4
sd $t2, 0($s0)
dadd $t2,$0,$t5
sd $t2,0($s1) # pongo el numero en data
daddi $t2,$0,2
sd $t2,0($s0) #control == 2
ld $ra, 0($sp)
daddi $sp,$sp,8
jr $ra
ES_IMPAR:
andi $v0,$a2,1
jr $ra
|
ValentinoKvolek/Universidad
| 1,534
|
Arquitectura_de_Computadoras/practicas/Practica 5/ejertipoparcial2.s
|
.data
rojo: .byte 255,0,0,0
azul: .byte 0,0,255,0
DIR_CONTROL: .word 0x10000 # DIR_CONTROL tiene la DIRECCIÓN del registro CONTROL
DIR_DATA: .word 0x10008 # IDEM para DATA
.code
daddi $sp,$0,0x400 #pongo sp en el tope de la "pila"
ld $s0, DIR_CONTROL($zero) # Carga el valor 0x10000 en $s0
ld $s1, DIR_DATA($zero) # Carga el valor 0x10008 en $s1
daddi $a0,$0,0 # y
ld $a2, rojo($zero)
ld $a3, azul($zero)
daddi $t5,$0,50
lazito: daddi $t5,$0,50
beq $a0,$t5,fin2
jal fila_alternativa
jal alternar_color
daddi $a0,$a0,1
j lazito
fin2:
halt
fila_alternativa:
daddi $sp,$sp , -8
sd $ra, 0($sp) # me guardo la direccion de retorno
daddi $a1,$0,0
daddi $t1,$0,50
lazo: daddi $t1,$0,50
beq $a1,$t1,fin
jal alternar_color
jal pintar
daddi $a1,$a1,1
j lazo
fin:
ld $ra, 0($sp)
daddi $sp,$sp , 8
jr $ra
#a0 = y , a1 = x , a2 = color
pintar:
sb $a0,4($s1) #guardo y en data
sb $a1,5($s1) #guardo x en data
sw $a2,0($s1) #guardo color en data
daddi $t0,$0,5
sd $t0,0($s0) # para pintar el pixel
jr $ra
#a2=rojo #a3=azul
alternar_color:
daddi $t0,$a2,0 # me guardo el color actual
daddi $a2,$a3,0 #alterno el color en a2
daddi $a3,$t0,0 #pongo colo anterio en a3 para volver al bucle
jr $ra
|
ValentinoKvolek/Universidad
| 1,557
|
Arquitectura_de_Computadoras/practicas/Practica 5/parcialRepaso.s
|
#Escribir un programa que lea desde teclado un número en punto flotante y lo compare con el valor almacenado en la celda Valor.
#Si el valor ingresado por teclado es mayor que el almacenado en Valor, deberá calcular (X - Valor) * X, donde X es el número leído por teclado.
#Caso contrario, deberá calcular (Valor - X) / X. Por último, deberá imprimir el texto "El resultado es:" junto con el valor calculado.
.data
valor: .byte 10
control: .word 0x10000
data: .word 0x10008
men: .asciiz "El resultado es:"
.code
daddi $s0,$0, control #guardo en s0 la direccion de control
daddi $s1,$0, data #guardo en s1 la direccion de data
jal ingresarNum
ld $a0,0($v0) # a0 = X
ld $a1,valor($0) #a1= valor
jal comparar
bnez $v0, calculo1
#calculo2
dsub $t0,$a1,$a0 #(Valor - X)
ddiv $t1,$t0,$a1 #(Valor - X) / X
j fin
calculo1:
dsub $t0,$a0,$a1 #(X - Valor)
dmul $t1,$t0,$a0 #(X - Valor) * X
j fin
fin:
daddi $t2,$0,men
sd $t2,0($s1) #guardo en data el mensanje
daddi $t2,$0, 4 #no me acuerdo que num madale a control
sd $t2,0($s0) # pero sea cual sea el num lo guarde en contro :v
daddi $t2,$t1,0 # pongo en t2 el resultado
sd $t2,0($s1) #guardo en data
daddi $t2,$0, 2 # para imprimir
sd $t2,0($s0)
halt
ingresarNum:
daddi $t0,$0, 8 # guardo en t0 el valor 8
sd $t0, 0($s0) #control == 8 para pedir un numero
ld $v0, 0($s1) #me guardo en v0 el numero ingresado
jr $ra
#a0 = x , $a1 = el numero que esta en VALOR.
comparar:
slt $v0,$a1,$a0
jr $ra
|
ValentinoKvolek/Universidad
| 1,105
|
Arquitectura_de_Computadoras/practicas/Practica 5/ejer1E.s
|
.data
CONTROL: .word 0x10000
DATA: .word 0x10008
base: .word 0
exponente: .word 0
result: .word 0
.code
ld $s0, CONTROL($zero) #guardo control en t0
ld $s1, DATA($zero) #guardo data en t1
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($s0) #control == 8
ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2
sd $t2, base($zero) #coloco el numero que lei en la variable base
ld $a0, base($zero) #guardo lo que esta en base en a0
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($s0) #control == 8
ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2
sd $t2, exponente($zero) #coloco el numero que lei en la variable exponete
ld $a1, exponente($zero) #guardo lo qeu esta en exponente en a1
jal potencia
sd $v0, result($zero)
sd $v0,0($s1) #guardo lo que me dio en data
daddi $t2, $zero, 2 # para impimer numero
sd $t2,0($s0) #control == 2
halt
potencia: daddi $v0, $zero, 1
lazo: beqz $a1, terminar
daddi $a1, $a1, -1
dmul $v0, $v0, $a0
j lazo
terminar: jr $ra
|
ValentinoKvolek/Universidad
| 2,647
|
Arquitectura_de_Computadoras/practicas/Practica 5/parcialArqui.s
|
#Escribir un programa que use la información de 8 pares de números guardados en la variable pares,
# y dibuje en la pantalla gráfica 8 puntos negros de acuerdo a la diferencia en valor absoluto de los valores de cada par.
#La variable pares contiene todos los valores de los pares, en la primera y segunda posición se guarda el primer par,
# en posición 3 y el segundo, y así sucesivamente.
#El procesamiento de los pares lo debe hacer la subrutina GRAFICAR que recibe por referencia el arreglo de pares y su cantidad.
#Para cada par de números leídos calcula la diferencia en valor absoluto y
#dibuja en la pantalla gráfica del simulador un punto negro en la posición (diferencia, diferencia).
#El cálculo de la diferencia se realiza en una subrutina que recibe los dos números del par y devuelve la diferencia en valor absoluto.
#Recuerde que la diferencia en valor absoluto se obtiene restando el número mayor al menor.
.data
CONTROL: .word 0x10000
DATA: .word 0x10008
negro: .byte 255,255,255,0
pares: .word 1,15,5,25,20,25,5,20,35,40,49,3,13,5,17,4
.code
ld $s0,CONTROL($0) #lo que esta en s0 lo cargo en control.
ld $s1,DATA($0) #lo que esta en s1 lo cargo en data.
daddi $sp,$0,0x400 #inicializo la pila
daddi $a0,$0,pares # coloco en a0 la direccion de pares
daddi $a1,$0, 16 #a1 tiene la cantidad.
jal GRAFICAR
halt
#a0 = direc pares, #a1 = cant
GRAFICAR:
#como voy a irme a mi subrutina que calcula diferencia me tengo que guarde mi direc. de retorno del programa principal.
daddi $sp, $sp , -8 # hago espacio.
sd $ra,0($sp) #guardo la direccion de retorno.
bucle: beqz $a1,finBucle
ld $a2,0($a0) #cargo X1 en a2
daddi $a0,$a0,1
ld $a3,0($a0) #cargo X2 en a3
daddi $a0,$a0,1
jal DIFERENCIA
ld $s2,0($v0) #s2 = X
ld $a2,0($a0) #cargo y1 en a2
daddi $a0,$a0,1
ld $a3,0($a0) #cargo y2 en a3
daddi $a0,$a0,1
jal DIFERENCIA
ld $s3,0($v0) #s3 = Y
lwu $t0,negro($0) #guardo color
sd $t0, 0($s1) #guardo en data el color
sd $s2,5($s1) #guardo en data el X
sd $s3,4($s1) #guardo en data el Y
daddi $t0,$0,5
sd $t0,0($s0) #Imprimo.
daddi $a1,$a1, -4
j bucle
finBucle:
#dejo la pila como estaba
ld $ra,0($sp)
daddi $sp, $sp , 8
jr $ra
# recibe a2= num1 y en a3 = num2
DIFERENCIA:
slt $t0, $a3,$a2 #si mi num 1 es mayor que el num 2 en t0 queda el 1
beqz $t0,resta2 #si esto no es cierto resta 2
# si no hago la resta 1:
dsub $t1,$a2,$a3 # NUM1 - NUM2
j fin
resta2: dsub $t1,$a3,$a2 # NUM2 - NUM1
fin: lbu $v0,0($t1) #resultado sin signo (valor absoluto)
jr $ra
|
ValentinoKvolek/Universidad
| 1,619
|
Arquitectura_de_Computadoras/practicas/Practica 5/ejemploParcial.s
|
.data
vector: .word 5, 10 , 20, -10
color: .byte 0,0,255,0
control: .word 0x10000
data: .word 0x10008
.code
ld $s0,control($0)
ld $s1,data($0)
daddi $sp,$0,0x400
daddi $a0,$0,vector # en a0 guardo la direccion de mi vector
jal imprimir
halt
#a0 = mi direc del vector
imprimir:
daddi $s0,$0,0 # donde guardo mi x
daddi $s1,$0,0 # donde guardo mi y
daddi $t1,$0,4 # esta mi condicion de corte
daddi $sp,$sp, -8
sd $ra,0($sp)
bucle: beqz $t1,fin
ld $a2,0($a0) # donde guardo mi x
daddi $a0,$a0,8
ld $a3,0($a0) # donde guardo mi y
daddi $a0,$a0,8
daddi $t1,$t1,-2
jal ENTRE
beqz $v0, seguir
beqz $v1, seguir
jal IMPRIMIR
j bucle
seguir:
j bucle
fin:
ld $ra,0($sp)
daddi $sp,$sp,8
jr $ra
#a2 = X a3 = Y
ENTRE:
# comparacion de x
daddi $t0,$0,-1
daddi $t1,$0,50
slt $t3,$t0,$a2
beqz $t3, fin
slt $t3,$a2,$t1
beqz $t3, fin
fin: $v0,$0,$t3 #v0 va a volver al programa con un 1 si me sirve el valor de X, si no con un 0
# comparacion de y
daddi $t0,$0,-1
daddi $t1,$0,50
slt $t3,$t0,$a3
beqz $t3, fin2
slt $t3,$a3,$t1
beqz $t3, fin2
fin2: $v1,$0,$t3 #v1 va a volver al programa con un 1 si me sirve el valor de Y, si no con un 0
jr $ra
#a2 = X a3 = Y
IMPRIMIR:
lwu $t0,color($0) #t0 tiene mi color.
sw $t0,0($s1) # guardo color en data
sb $a2,5($s1) #guardio mi x
sb $a3,4($s1) #guardio mi y
daddi $t0,$0,5
sd $t0,0($s0) #control en 5
jr $ra
|
ValentinoKvolek/Universidad
| 1,163
|
Arquitectura_de_Computadoras/practicas/Practica 5/ejer1F.s
|
.data
CONTROL: .word 0x10000
DATA: .word 0x10008
base1: .word 3
base2: .word 2
exponente: .word 0
result: .word 0
aux: .word 0
aux2: .word 0
.code
ld $s0, CONTROL($zero) #guardo control en s0
ld $s1, DATA($zero) #guardo data en s1
ld $a0, base1($zero) #guardo lo que esta en base en a0
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($s0) #control == 8
ld $t2, 0($s1) #lo tomo el caracter de data y lo pongo en t2
sd $t2, exponente($zero) #coloco el numero que lei en la variable exponete
ld $a1, exponente($zero) #guardo lo qeu esta en exponente en a1
jal potencia
sd $v0, aux($zero)
ld $a0, base2($zero) #guardo lo que esta en base en a0
ld $a1, exponente($zero) #guardo lo qeu esta en exponente en a1
jal potencia
sd $v0, aux2($zero)
ld $t1,aux($zero)
ld $t3,aux2($zero)
dadd $v0,$t3,$t1
sd $v0,0($s1) #guardo lo que me dio en data
daddi $t2, $zero, 2 # para impimer numero
sd $t2,0($s0) #control == 2
halt
potencia: daddi $v0, $zero, 1
lazo: beqz $a1, terminar
daddi $a1, $a1, -1
dmul $v0, $v0, $a0
j lazo
terminar: jr $ra
|
ValentinoKvolek/Universidad
| 1,280
|
Arquitectura_de_Computadoras/practicas/Practica 5/ejer6b.s
|
.data
n: .word 2
m: .word 3
resultfinal: .word 0
.code
daddi $sp, $0, 0x400 #guardo en sp la direccion de la pila
ld $a0, m($zero) #paso a m
ld $a1, n($zero) #paso a n
jal comb
sd $v0, resultfinal($zero)
halt
#recibe M por $a0 y N por $a1, calculando M!/(N!*(M-N)!)
comb:
daddi $sp,$sp,-8
sd $ra,0($sp) #me guardo la direccion de retorno
daddi $sp,$sp,-8
sd $s0,0($sp) #guardo los registro s0 en la pila
daddi $sp,$sp,-8
sd $s1,0($sp) #guardo los registro s0 en la pila
daddi $s0, $a0, 0 #guarde M
daddi $s1, $a1, 0 #guarde N
jal factorial
daddi $t0, $v0,0 # m!
daddi $a0, $s1,0 #a0 con N
jal factorial
daddi $t1, $v0,0 # n!
dsub $t2,$s0,$s1 # M-N
daddi $a0,$t2,0 #lo guardo en a0 (el resultado de m-n)
jal factorial
daddi $t3,$v0,0 #(M-N)!
dmul $t4,$t1,$t3 # n! * (m-n)!
ddiv $v0,$t0,$t4 # m! / (n! * (n-m)!)
#vuelvo a el estado inicial de la pila
ld $s1,0($sp)
daddi $sp,$sp,8
ld $s0,0($sp)
daddi $sp,$sp,8
ld $ra,0($sp)
daddi $sp,$sp,8
jr $ra
factorial:
daddi $v0,$0,1
lazo: beqz $a0, fin
dmul $v0,$v0,$a0
daddi $a0,$a0, -1
j lazo
fin: jr $ra
|
ValentinoKvolek/Universidad
| 2,186
|
Arquitectura_de_Computadoras/practicas/Practica 5/parcialRepaso2.s
|
# Escribir la subrutina MIN_MAX que recibe la dirección de comienzo de una tabla y la cantidad de elementos,
# y devuelve el valor máximo y el mínimo de dicha tabla.
#Usando la subrutina, implementar un programa que obtenga el min y el max de 2 tablas.
#Por último, imprimir en la pantalla gráfica un punto de color Verde (0,255,0) en la coordenada (mínimo_tabla2, máximo_tabla1) y otro de color Azul (0, 0, 255) en la coordenada (mínimo_tabla1, máximo_tabla2).
# Usar la convención para nombrar a los registros
.data
tabla: .byte 1,5,10,2,5
tabla2: .byte 1,2,11,3,5
vectoryoni: .byte 3,4,5,6,10,40,12
verde: .byte 0,255,0,0
azul: .byte 0,0,255,0
control: .word 0x10000
data: .word 0x10008
.code
ld $s0,control($0) #control en s0
ld $s1,data($0) #data en s1
daddi $a0,$0, tabla # le paso a a0 la direccion de tabla.
daddi $a1,$0,5 # pongo en a1 la longitud.
jal MIN_MAX
sd $v0,0($s2) #guardo mi max1 en s2
sd $v1,0($s3) #guardo mi min1 en s3
# reseteo la tabla:
daddi $a0,$0, tabla2 # le paso a a0 la direccion de tabla.
daddi $a1,$0,5 # pongo en a1 la longitud.
jal MIN_MAX
sd $v0,0($s4) #guardo mi max2 en s4
sd $v1,0($s5) #guardo mi min2 en s5
#Imprimir1
lwu $t0,verde($0)
sb $s5,4($s1) #guardo Y (minimo tabla 2) en data
sb $s2,5($s1) #guardo X (maximo tabla 1) en data
sw $t0,0($s1) #guardo color en data
daddi $t0,$0,5
sd $t0,0($s0) # para pintar el pixel
#Imprimir2
lwu $t0,azul($0)
sb $s3,4($s1) #guardo y (minimo tabla 1) en data
sb $s4,5($s1) #guardo x (maximo tabla 2) en data
sw $t0,0($s1) #guardo color en data
daddi $t0,$0,5
sd $t0,0($s0) # para pintar el pixel
halt
#a0 = tabla, a1 = longitud de tabla.
MIN_MAX:
daddi $v0,$0,-99 # v0 = Max
daddi $v1,$0,99 # v1 = Min
daddi $t0,$0,0 # numero temporal.
lazo:
beqz $a1, fin
lb $t0,0($a0) #cargo el numero
slt $t1,$t0,$v0 #comparo el max
bnez $t1, saveMax
slt $t1,$v0,$t0 #comparo el min
bnez $t1, saveMin
seguir:
daddi $a0,$a0,1 #aumento a0 para recorrer mi tabla
daddi $a1,$a1,-1 #descuento para el corte
j lazo
saveMax:
daddi $v0,$0,$t0 #guardo Max.
j seguir
saveMin:
daddi $v1,$0,$t0 #guardo Min.
j seguir
fin:
jr $ra
|
ValentinoKvolek/Universidad
| 1,440
|
Arquitectura_de_Computadoras/practicas/practica 4/ejer3part2.s
|
.data
CONTROL: .word 0x10000
DATA: .word 0x10008
num1: .byte 0
num2: .byte 0
operacion: .ascii
suma: .ascii "+"
resta: .ascii "-"
mull: .ascii "*"
divv: .ascii "/"
.code
ld $s0,suma($zero)
ld $s1,resta($zero)
ld $s2,mull($zero)
ld $s3,divv($zero)
ld $t0, CONTROL($zero)
ld $t1, DATA($zero)
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($t0) #control == 8
#presiono una tecla y la cpu guarda el num en DATA
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, num1($zero)
daddi $t2,$zero,9 #leer ascii
sd $t2,0($t0) #control == 9
lbu $t2, 0($t1) #lo tomo el caracter en t2
sb $t2, operacion($zero)
#una vez guarde los dos numeros los sumo
ld $t3,num1($zero)
ld $t4,num2($zero)
ld $t6,operacion($zero)
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($t0) #control == 8
#presiono una tecla y la cpu guarda el num en DATA
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, num2($zero)
beq $t6,$s0,sumar
beq $t6,$s1,restar
beq $t6,$s2,multiplicar
beq $t6,$s3,dividir
sumar:
dadd $t5,$t3,$t4
dadd $t7,$zero,%t5
j fin
restar:
dsub $t5,$t3,$t4
dadd $t7,$zero,%t5
j fin
dividir:
ddiv $t5,$t3,$t4
dadd $t7,$zero,%t5
j fin
multiplicar:
dmul $t5,$t3,$t4
dadd $t7,$zero,%t5
j fin
fin:
sd $t5,0($t1) #guardo lo que dio la suma en data para impimir
daddi $t2,$zero, 2
sd $t2,0($t0) #control == 2
halt
|
ValentinoKvolek/Universidad
| 1,164
|
Arquitectura_de_Computadoras/practicas/practica 4/ejer4part2.s
|
.data
coorX: .byte 24 #coordenada X de un punto
coorY: .byte 24 #coordenada Y de un punto
color: .byte 255, 0, 255, 0 #color: máximo rojo + máximo azul => magenta
CONTROL: .word 0x10000
DATA: .word 0x10008
.code
ld $t0, CONTROL($zero)
ld $t1, DATA($zero)
daddi $t5,$zero,0
daddi $t6,$zero,49
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($t0) #control == 8
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, coorX($zero)
daddi $t2, $zero, 8 # para leer un numero
sd $t2,0($t0) #control == 8
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, coorY($zero)
loop: lwu $t2, color($zero) #t2 = calor del color a pintar
sw $t2, 0($t1) #data recibe valor del color a pintar
lbu $t2, coorX($zero) #t2 = valor de coor x
sb $t2, 5($t1) #data + 5 = recibe cord x
lbu $t2,coorY($zero)#t2 = y
sb $t2, 4($t1) #dara + 4 recibe coords de y
daddi $t2, $zero, 5 # t2 = 5 funcion 5 : salida grafica
sd $t2, 0($t0)
daddi $t5,$t5,1
sb $t5, coorY($zero)
daddi $t6,$t6,-1
bnez $t6,loop
halt
|
ValentinoKvolek/Universidad
| 1,969
|
Arquitectura_de_Computadoras/practicas/practica 4/ejer2part1.s
|
.data
mensaje: .asciiz "ingrese una clave de 4 digitos \n"
mensaje2: .asciiz "contraseña incorrecta"
mensaje3: .asciiz "contraseña correcta"
CONTROL: .word 0x10000
DATA: .word 0x10008
caracteres: .space 4
password: .ascii "aaaa"
.code
ld $t0, CONTROL($zero) #guardo el VALOR en t0
ld $t1, DATA($zero) #guardo el VALOR en t1
daddi $t2, $zero , mensaje #guardo la direccion en t2
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
daddi $t3, $zero , 4 #para ingresar 4 char
daddi $t8, $zero , 0
loop:
daddi $t2, $zero, 9 # pongo el 9 para leer un char
sd $t2,0($t0) #control == 9
#presiono una tecla y la cpu guarda el char en DATA
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, caracteres($t8)
daddi $t3, $t3, -1
daddi $t8,$t8, 1
bnez $t3, loop
daddi $t3, $zero , 4 #cant vecees
daddi $t7, $zero , 0 # lo uso para desplazarme en ascci
lazo:
ld $t5,caracteres($t7)
ld $t6,password($t7)
bne $t5,$t6,noEs
daddi $t7, $t7, 1
daddi $t3, $t3, -1
beqz $t3, lazo
daddi $t2, $zero , mensaje3 #guardo la direccion en t2
daddi $t3, $zero , 4 #para ingresar 4 char
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
j fin
noEs: daddi $t2, $zero , mensaje2 #guardo la direccion en t2
daddi $t3, $zero , 4 #para ingresar 4 char
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
j fin
fin: halt
|
ValentinoKvolek/Universidad
| 1,985
|
Arquitectura_de_Computadoras/practicas/practica 4/ejer2b.s
|
.data
mensaje: .asciiz "ingrese una clave de 4 digitos \n"
mensaje2: .asciiz "contraseña incorrecta"
mensaje3: .asciiz "contraseña correcta"
CONTROL: .word 0x10000
DATA: .word 0x10008
caracteres: .space 4
password: .ascii "aaaa"
.code
ld $t0, CONTROL($zero) #guardo el VALOR en t0
ld $t1, DATA($zero) #guardo el VALOR en t1
daddi $t2, $zero , mensaje #guardo la direccion en t2
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
infinito: daddi $t3, $zero , 4 #para ingresar 4 char
daddi $t8, $zero , 0
loop:
daddi $t2, $zero, 9 # pongo el 9 para leer un char
sd $t2,0($t0) #control == 9
#presiono una tecla y la cpu guarda el char en DATA
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, caracteres($t8)
daddi $t3, $t3, -1
daddi $t8,$t8, 1
bnez $t3, loop
daddi $t3, $zero , 4 #cant vecees
daddi $t7, $zero , 0 # lo uso para desplazarme en ascci
lazo:
ld $t5,caracteres($t7)
ld $t6,password($t7)
bne $t5,$t6,noEs
daddi $t7, $t7, 1
daddi $t3, $t3, -1
beqz $t3, lazo
daddi $t2, $zero , mensaje3 #guardo la direccion en t2
daddi $t3, $zero , 4 #para ingresar 4 char
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
j fin
noEs: daddi $t2, $zero , mensaje2 #guardo la direccion en t2
daddi $t3, $zero , 4 #para ingresar 4 char
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
j infinito
fin: halt
|
ValentinoKvolek/Universidad
| 2,677
|
Arquitectura_de_Computadoras/practicas/practica 4/ejer2cpart2.s
|
.data
mensaje: .asciiz "ingrese una clave de 4 digitos \n"
mensaje2: .asciiz "contraseña incorrecta"
mensaje3: .asciiz "contraseña correcta"
CONTROL: .word 0x10000
DATA: .word 0x10008
caracteres: .space 4
password: .ascii "aaaa"
X: .word 0
stringAux: .ascii " intentos restantes"
.code
daddi $t9, $zero, 6 #intentos
ld $t0, CONTROL($zero) #guardo el VALOR en t0
ld $t1, DATA($zero) #guardo el VALOR en t1
intento: daddi $t9, $t9, -1
sd $t9, X($zero)
daddi $t2, $zero , mensaje #guardo la direccion en t2
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
daddi $t2, $zero , X #guardo la direccion en t2
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 1 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascii
sd $t2, 0($t0) ; le paso a CONTROL el 1 y imprime
daddi $t2, $zero , stringAux #guardo la direccion en t2
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
daddi $t3, $zero , 4 #para ingresar 4 char
daddi $t8, $zero , 0
loop:
daddi $t2, $zero, 9 # pongo el 9 para leer un char
sd $t2,0($t0) #control == 9
#presiono una tecla y la cpu guarda el char en DATA
lbu $t2, 0($t1) #lo tomo el caracter en t2
#guardo en variable
sb $t2, caracteres($t8)
daddi $t3, $t3, -1
daddi $t8,$t8, 1
bnez $t3, loop
daddi $t3, $zero , 4 #cant vecees
daddi $t7, $zero , 0 # lo uso para desplazarme en ascci
lazo:
ld $t5,caracteres($t7)
ld $t6,password($t7)
bne $t5,$t6,noEs
daddi $t7, $t7, 1
daddi $t3, $t3, -1
beqz $t3, lazo
daddi $t2, $zero , mensaje3 #guardo la direccion en t2
daddi $t3, $zero , 4 #para ingresar 4 char
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
j fin
noEs: daddi $t2, $zero , mensaje2 #guardo la direccion en t2
daddi $t3, $zero , 4 #para ingresar 4 char
sd $t2, 0 ($t1) # DATA recibe el puntero al comienzo del mensaje
daddi $t2, $zero, 4 #aca remplazo el valor de t2 y lo pongo en 4 para imprimir ascci
sd $t2, 0($t0) ; le paso a CONTROL el 4 y imprime
beqz $t9,fin
j intento
fin: halt
|
ValentinoKvolek/Universidad
| 2,884
|
Arquitectura_de_Computadoras/WinMIPS64/Sim-WinMips64/testio.s
|
;
; Example IO program
;
.data
int: .word 0xF9876543987625aa ; a 64-bit integer
mes: .asciiz "Hello World\n" ; the message
key: .asciiz "Press any key to exit\n"
dub: .double 32.786 ; a double
x: .byte 0 ; coordinates of a point
y: .byte 0
col: .byte 255,0,255,0 ; the colour magenta
;
; Memory Mapped I/O area
;
; Address of CONTROL and DATA registers
;
; Set CONTROL = 1, Set DATA to Unsigned Integer to be output
; Set CONTROL = 2, Set DATA to Signed Integer to be output
; Set CONTROL = 3, Set DATA to Floating Point to be output
; Set CONTROL = 4, Set DATA to address of string to be output
; Set CONTROL = 5, Set DATA+5 to x coordinate, DATA+4 to y coordinate, and DATA to RGB colour to be output
; Set CONTROL = 6, Clears the terminal screen
; Set CONTROL = 7, Clears the graphics screen
; Set CONTROL = 8, read the DATA (either an integer or a floating-point) from the keyboard
; Set CONTROL = 9, read one byte from DATA, no character echo.
;
CONTROL: .word32 0x10000
DATA: .word32 0x10008
.text
lwu $t8,DATA($zero) ; $t8 = address of DATA register
lwu $t9,CONTROL($zero) ; $t9 = address of CONTROL register
daddi $v0,$zero,1 ; set for unsigned integer output
ld $t1,int($zero)
sd $t1,0($t8) ; write integer to DATA register
sd $v0,0($t9) ; write to CONTROL register and make it happen
daddi $v0,$zero,2 ; set for signed integer output
ld $t1,int($zero)
sd $t1,0($t8) ; write integer to DATA register
sd $v0,0($t9) ; write to CONTROL register and make it happen
daddi $v0,$zero,3 ; set for double output
l.d f1,dub($zero)
s.d f1,0($t8) ; write double to DATA register
sd $v0,0($t9) ; write to CONTROL register and make it happen
daddi $v0,$zero,4 ; set for ascii output
daddi $t1,$zero,mes
sd $t1,0($t8) ; write address of message to DATA register
sd $v0,0($t9) ; make it happen
daddi $v0,$zero,5 ; set for graphics output
lbu $t2,x($zero)
sb $t2,5($t8) ; store x in DATA+5
lbu $t3,y($zero)
sb $t3,4($t8) ; store y in DATA+4
lwu $t1,col($zero)
sw $t1,0($t8) ; store colour in DATA
sd $v0,0($t9) ; draw it
;
; Now draw a line!
;
daddi $t4,$zero,49
again: daddi $t2,$t2,1 ; increment x
sb $t2,5($t8) ; store x in DATA+5
daddi $t3,$t3,1 ; increment y
sb $t3,4($t8) ; store y in DATA+5
sd $v0,0($t9) ; draw it
daddi $t4,$t4,-1
bnez $t4,again
;
; Finish off
;
daddi $v0,$zero,4 ; set for ascii output
daddi $t1,$zero,key
sd $t1,0($t8) ; write address of message to DATA register
sd $v0,0($t9) ; "Press any key to exit"
daddi $v0,$zero,9 ;
sd $v0,0($t9) ; Wait for a key press...
ld $t1,0($t8) ;
daddi $v0,$zero,6 ;
sd $v0,0($t9) ; clear the terminal screen
daddi $v0,$zero,7 ;
sd $v0,0($t9) ; clear the graphics screen
halt
|
ValentinoKvolek/Universidad
| 2,404
|
Arquitectura_de_Computadoras/WinMIPS64/Sim-WinMips64/hail.s
|
;
; Hailstone numbers iteration
; If number is odd, multiply by 3 and add 1
; If number is even, divide it by 2
; repeat this iteration until number is 1
; What is the maximum value during this process?
;
.data
max: .word 0 ; max number so far
title: .asciiz "Hailstone Numbers\n"
prompt: .asciiz "Number= "
str: .asciiz "Maximum= "
;
; Memory Mapped I/O area
;
; Address of CONTROL and DATA registers
;
; Set CONTROL = 1, Set DATA to Unsigned Integer to be output
; Set CONTROL = 2, Set DATA to Signed Integer to be output
; Set CONTROL = 3, Set DATA to Floating Point to be output
; Set CONTROL = 4, Set DATA to address of string to be output
; Set CONTROL = 5, Set DATA+5 to x coordinate, DATA+4 to y coordinate, and DATA to RGB colour to be output
; Set CONTROL = 6, Clears the terminal screen
; Set CONTROL = 7, Clears the graphics screen
; Set CONTROL = 8, read the DATA (either an integer or a floating-point) from the keyboard
; Set CONTROL = 9, read one byte from DATA, no character echo.
;
CONTROL: .word32 0x10000
DATA: .word32 0x10008
.text
lwu r8,DATA(r0) ; get data
lwu r9,CONTROL(r0) ; and control registers
daddi r11,r0,4 ; set for string output
daddi r1,r0,title ; get title address
sd r1,(r8) ; print title
sd r11,(r9)
daddi r1,r0,prompt ; get prompt address
sd r1,0(r8) ; print prompt
sd r11,0(r9)
daddi r1,$zero,8 ; set for input
sd r1,0(r9) ; get the hailstone start number
ld r1,0(r8)
sd r1,max(r0) ; first maximum
daddi r12,r0,1 ; set for integer output
loop: andi r3,r1,1 ; test odd or even
beqz r3,even
odd: daddu r2,r1,r1 ; times 2
dadd r1,r2,r1 ; times 3
daddi r1,r1,1 ; plus 1
j over
even: dsrl r1,r1,1 ; divide by 2
over: sd r1,(r8)
sd r12,(r9) ; display it
ld r4,max(r0)
slt r3,r4,r1 ; compare with max
beqz r3,skip
sd r1,max(r0) ; new maximum?
skip: slti r3,r1,2 ; test for finished
beqz r3,loop
ld r2,max(r0) ; get max
daddi r1,r0,str ; get address of "Maximum= " string
sd r1,(r8) ; display "Maximum"
sd r11,(r9)
sd r2,(r8) ; output maximum
sd r12,(r9)
halt
|
Vecno-Foundation/vecno-testnet
| 6,073
|
crypto/hashes/src/keccakf1600_x86-64.s
|
# Source: https://github.com/dot-asm/cryptogams/blob/master/x86_64/keccak1600-x86_64.pl
.text
.type __KeccakF1600,@function
.align 32
__KeccakF1600:
.cfi_startproc
.byte 0xf3,0x0f,0x1e,0xfa
movq 60(%rdi),%rax
movq 68(%rdi),%rbx
movq 76(%rdi),%rcx
movq 84(%rdi),%rdx
movq 92(%rdi),%rbp
jmp .Loop
.align 32
.Loop:
movq -100(%rdi),%r8
movq -52(%rdi),%r9
movq -4(%rdi),%r10
movq 44(%rdi),%r11
xorq -84(%rdi),%rcx
xorq -76(%rdi),%rdx
xorq %r8,%rax
xorq -92(%rdi),%rbx
xorq -44(%rdi),%rcx
xorq -60(%rdi),%rax
movq %rbp,%r12
xorq -68(%rdi),%rbp
xorq %r10,%rcx
xorq -20(%rdi),%rax
xorq -36(%rdi),%rdx
xorq %r9,%rbx
xorq -28(%rdi),%rbp
xorq 36(%rdi),%rcx
xorq 20(%rdi),%rax
xorq 4(%rdi),%rdx
xorq -12(%rdi),%rbx
xorq 12(%rdi),%rbp
movq %rcx,%r13
rolq $1,%rcx
xorq %rax,%rcx
xorq %r11,%rdx
rolq $1,%rax
xorq %rdx,%rax
xorq 28(%rdi),%rbx
rolq $1,%rdx
xorq %rbx,%rdx
xorq 52(%rdi),%rbp
rolq $1,%rbx
xorq %rbp,%rbx
rolq $1,%rbp
xorq %r13,%rbp
xorq %rcx,%r9
xorq %rdx,%r10
rolq $44,%r9
xorq %rbp,%r11
xorq %rax,%r12
rolq $43,%r10
xorq %rbx,%r8
movq %r9,%r13
rolq $21,%r11
orq %r10,%r9
xorq %r8,%r9
rolq $14,%r12
xorq (%r15),%r9
leaq 8(%r15),%r15
movq %r12,%r14
andq %r11,%r12
movq %r9,-100(%rsi)
xorq %r10,%r12
notq %r10
movq %r12,-84(%rsi)
orq %r11,%r10
movq 76(%rdi),%r12
xorq %r13,%r10
movq %r10,-92(%rsi)
andq %r8,%r13
movq -28(%rdi),%r9
xorq %r14,%r13
movq -20(%rdi),%r10
movq %r13,-68(%rsi)
orq %r8,%r14
movq -76(%rdi),%r8
xorq %r11,%r14
movq 28(%rdi),%r11
movq %r14,-76(%rsi)
xorq %rbp,%r8
xorq %rdx,%r12
rolq $28,%r8
xorq %rcx,%r11
xorq %rax,%r9
rolq $61,%r12
rolq $45,%r11
xorq %rbx,%r10
rolq $20,%r9
movq %r8,%r13
orq %r12,%r8
rolq $3,%r10
xorq %r11,%r8
movq %r8,-36(%rsi)
movq %r9,%r14
andq %r13,%r9
movq -92(%rdi),%r8
xorq %r12,%r9
notq %r12
movq %r9,-28(%rsi)
orq %r11,%r12
movq -44(%rdi),%r9
xorq %r10,%r12
movq %r12,-44(%rsi)
andq %r10,%r11
movq 60(%rdi),%r12
xorq %r14,%r11
movq %r11,-52(%rsi)
orq %r10,%r14
movq 4(%rdi),%r10
xorq %r13,%r14
movq 52(%rdi),%r11
movq %r14,-60(%rsi)
xorq %rbp,%r10
xorq %rax,%r11
rolq $25,%r10
xorq %rdx,%r9
rolq $8,%r11
xorq %rbx,%r12
rolq $6,%r9
xorq %rcx,%r8
rolq $18,%r12
movq %r10,%r13
andq %r11,%r10
rolq $1,%r8
notq %r11
xorq %r9,%r10
movq %r10,-12(%rsi)
movq %r12,%r14
andq %r11,%r12
movq -12(%rdi),%r10
xorq %r13,%r12
movq %r12,-4(%rsi)
orq %r9,%r13
movq 84(%rdi),%r12
xorq %r8,%r13
movq %r13,-20(%rsi)
andq %r8,%r9
xorq %r14,%r9
movq %r9,12(%rsi)
orq %r8,%r14
movq -60(%rdi),%r9
xorq %r11,%r14
movq 36(%rdi),%r11
movq %r14,4(%rsi)
movq -68(%rdi),%r8
xorq %rcx,%r10
xorq %rdx,%r11
rolq $10,%r10
xorq %rbx,%r9
rolq $15,%r11
xorq %rbp,%r12
rolq $36,%r9
xorq %rax,%r8
rolq $56,%r12
movq %r10,%r13
orq %r11,%r10
rolq $27,%r8
notq %r11
xorq %r9,%r10
movq %r10,28(%rsi)
movq %r12,%r14
orq %r11,%r12
xorq %r13,%r12
movq %r12,36(%rsi)
andq %r9,%r13
xorq %r8,%r13
movq %r13,20(%rsi)
orq %r8,%r9
xorq %r14,%r9
movq %r9,52(%rsi)
andq %r14,%r8
xorq %r11,%r8
movq %r8,44(%rsi)
xorq -84(%rdi),%rdx
xorq -36(%rdi),%rbp
rolq $62,%rdx
xorq 68(%rdi),%rcx
rolq $55,%rbp
xorq 12(%rdi),%rax
rolq $2,%rcx
xorq 20(%rdi),%rbx
xchgq %rsi,%rdi
rolq $39,%rax
rolq $41,%rbx
movq %rdx,%r13
andq %rbp,%rdx
notq %rbp
xorq %rcx,%rdx
movq %rdx,92(%rdi)
movq %rax,%r14
andq %rbp,%rax
xorq %r13,%rax
movq %rax,60(%rdi)
orq %rcx,%r13
xorq %rbx,%r13
movq %r13,84(%rdi)
andq %rbx,%rcx
xorq %r14,%rcx
movq %rcx,76(%rdi)
orq %r14,%rbx
xorq %rbp,%rbx
movq %rbx,68(%rdi)
movq %rdx,%rbp
movq %r13,%rdx
testq $255,%r15
jnz .Loop
leaq -192(%r15),%r15
.byte 0xf3,0xc3
.cfi_endproc
.size __KeccakF1600,.-__KeccakF1600
.globl KeccakF1600
.type KeccakF1600,@function
.align 32
KeccakF1600:
.cfi_startproc
.byte 0xf3,0x0f,0x1e,0xfa
pushq %rbx
.cfi_adjust_cfa_offset 8
.cfi_offset %rbx,-16
pushq %rbp
.cfi_adjust_cfa_offset 8
.cfi_offset %rbp,-24
pushq %r12
.cfi_adjust_cfa_offset 8
.cfi_offset %r12,-32
pushq %r13
.cfi_adjust_cfa_offset 8
.cfi_offset %r13,-40
pushq %r14
.cfi_adjust_cfa_offset 8
.cfi_offset %r14,-48
pushq %r15
.cfi_adjust_cfa_offset 8
.cfi_offset %r15,-56
leaq 100(%rdi),%rdi
subq $200,%rsp
.cfi_adjust_cfa_offset 200
notq -92(%rdi)
notq -84(%rdi)
notq -36(%rdi)
notq -4(%rdi)
notq 36(%rdi)
notq 60(%rdi)
leaq iotas(%rip),%r15
leaq 100(%rsp),%rsi
call __KeccakF1600
notq -92(%rdi)
notq -84(%rdi)
notq -36(%rdi)
notq -4(%rdi)
notq 36(%rdi)
notq 60(%rdi)
leaq -100(%rdi),%rdi
addq $200,%rsp
.cfi_adjust_cfa_offset -200
popq %r15
.cfi_adjust_cfa_offset -8
.cfi_restore %r15
popq %r14
.cfi_adjust_cfa_offset -8
.cfi_restore %r14
popq %r13
.cfi_adjust_cfa_offset -8
.cfi_restore %r13
popq %r12
.cfi_adjust_cfa_offset -8
.cfi_restore %r12
popq %rbp
.cfi_adjust_cfa_offset -8
.cfi_restore %rbp
popq %rbx
.cfi_adjust_cfa_offset -8
.cfi_restore %rbx
.byte 0xf3,0xc3
.cfi_endproc
.size KeccakF1600,.-KeccakF1600
.align 256
.quad 0,0,0,0,0,0,0,0
.type iotas,@object
iotas:
.quad 0x0000000000000001
.quad 0x0000000000008082
.quad 0x800000000000808a
.quad 0x8000000080008000
.quad 0x000000000000808b
.quad 0x0000000080000001
.quad 0x8000000080008081
.quad 0x8000000000008009
.quad 0x000000000000008a
.quad 0x0000000000000088
.quad 0x0000000080008009
.quad 0x000000008000000a
.quad 0x000000008000808b
.quad 0x800000000000008b
.quad 0x8000000000008089
.quad 0x8000000000008003
.quad 0x8000000000008002
.quad 0x8000000000000080
.quad 0x000000000000800a
.quad 0x800000008000000a
.quad 0x8000000080008081
.quad 0x8000000000008080
.quad 0x0000000080000001
.quad 0x8000000080008008
.size iotas,.-iotas
.byte 75,101,99,99,97,107,45,49,54,48,48,32,97,98,115,111,114,98,32,97,110,100,32,115,113,117,101,101,122,101,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
.section .note.gnu.property,"a",@note
.long 4,2f-1f,5
.byte 0x47,0x4E,0x55,0
1: .long 0xc0000002,4,3
.align 8
2:
|
Vecno-Foundation/vecno-testnet
| 5,802
|
crypto/hashes/src/keccakf1600_x86-64-osx.s
|
# Source: https://github.com/dot-asm/cryptogams/blob/master/x86_64/keccak1600-x86_64.pl
.text
.p2align 5
__KeccakF1600:
.cfi_startproc
.byte 0xf3,0x0f,0x1e,0xfa
movq 60(%rdi),%rax
movq 68(%rdi),%rbx
movq 76(%rdi),%rcx
movq 84(%rdi),%rdx
movq 92(%rdi),%rbp
jmp L$oop
.p2align 5
L$oop:
movq -100(%rdi),%r8
movq -52(%rdi),%r9
movq -4(%rdi),%r10
movq 44(%rdi),%r11
xorq -84(%rdi),%rcx
xorq -76(%rdi),%rdx
xorq %r8,%rax
xorq -92(%rdi),%rbx
xorq -44(%rdi),%rcx
xorq -60(%rdi),%rax
movq %rbp,%r12
xorq -68(%rdi),%rbp
xorq %r10,%rcx
xorq -20(%rdi),%rax
xorq -36(%rdi),%rdx
xorq %r9,%rbx
xorq -28(%rdi),%rbp
xorq 36(%rdi),%rcx
xorq 20(%rdi),%rax
xorq 4(%rdi),%rdx
xorq -12(%rdi),%rbx
xorq 12(%rdi),%rbp
movq %rcx,%r13
rolq $1,%rcx
xorq %rax,%rcx
xorq %r11,%rdx
rolq $1,%rax
xorq %rdx,%rax
xorq 28(%rdi),%rbx
rolq $1,%rdx
xorq %rbx,%rdx
xorq 52(%rdi),%rbp
rolq $1,%rbx
xorq %rbp,%rbx
rolq $1,%rbp
xorq %r13,%rbp
xorq %rcx,%r9
xorq %rdx,%r10
rolq $44,%r9
xorq %rbp,%r11
xorq %rax,%r12
rolq $43,%r10
xorq %rbx,%r8
movq %r9,%r13
rolq $21,%r11
orq %r10,%r9
xorq %r8,%r9
rolq $14,%r12
xorq (%r15),%r9
leaq 8(%r15),%r15
movq %r12,%r14
andq %r11,%r12
movq %r9,-100(%rsi)
xorq %r10,%r12
notq %r10
movq %r12,-84(%rsi)
orq %r11,%r10
movq 76(%rdi),%r12
xorq %r13,%r10
movq %r10,-92(%rsi)
andq %r8,%r13
movq -28(%rdi),%r9
xorq %r14,%r13
movq -20(%rdi),%r10
movq %r13,-68(%rsi)
orq %r8,%r14
movq -76(%rdi),%r8
xorq %r11,%r14
movq 28(%rdi),%r11
movq %r14,-76(%rsi)
xorq %rbp,%r8
xorq %rdx,%r12
rolq $28,%r8
xorq %rcx,%r11
xorq %rax,%r9
rolq $61,%r12
rolq $45,%r11
xorq %rbx,%r10
rolq $20,%r9
movq %r8,%r13
orq %r12,%r8
rolq $3,%r10
xorq %r11,%r8
movq %r8,-36(%rsi)
movq %r9,%r14
andq %r13,%r9
movq -92(%rdi),%r8
xorq %r12,%r9
notq %r12
movq %r9,-28(%rsi)
orq %r11,%r12
movq -44(%rdi),%r9
xorq %r10,%r12
movq %r12,-44(%rsi)
andq %r10,%r11
movq 60(%rdi),%r12
xorq %r14,%r11
movq %r11,-52(%rsi)
orq %r10,%r14
movq 4(%rdi),%r10
xorq %r13,%r14
movq 52(%rdi),%r11
movq %r14,-60(%rsi)
xorq %rbp,%r10
xorq %rax,%r11
rolq $25,%r10
xorq %rdx,%r9
rolq $8,%r11
xorq %rbx,%r12
rolq $6,%r9
xorq %rcx,%r8
rolq $18,%r12
movq %r10,%r13
andq %r11,%r10
rolq $1,%r8
notq %r11
xorq %r9,%r10
movq %r10,-12(%rsi)
movq %r12,%r14
andq %r11,%r12
movq -12(%rdi),%r10
xorq %r13,%r12
movq %r12,-4(%rsi)
orq %r9,%r13
movq 84(%rdi),%r12
xorq %r8,%r13
movq %r13,-20(%rsi)
andq %r8,%r9
xorq %r14,%r9
movq %r9,12(%rsi)
orq %r8,%r14
movq -60(%rdi),%r9
xorq %r11,%r14
movq 36(%rdi),%r11
movq %r14,4(%rsi)
movq -68(%rdi),%r8
xorq %rcx,%r10
xorq %rdx,%r11
rolq $10,%r10
xorq %rbx,%r9
rolq $15,%r11
xorq %rbp,%r12
rolq $36,%r9
xorq %rax,%r8
rolq $56,%r12
movq %r10,%r13
orq %r11,%r10
rolq $27,%r8
notq %r11
xorq %r9,%r10
movq %r10,28(%rsi)
movq %r12,%r14
orq %r11,%r12
xorq %r13,%r12
movq %r12,36(%rsi)
andq %r9,%r13
xorq %r8,%r13
movq %r13,20(%rsi)
orq %r8,%r9
xorq %r14,%r9
movq %r9,52(%rsi)
andq %r14,%r8
xorq %r11,%r8
movq %r8,44(%rsi)
xorq -84(%rdi),%rdx
xorq -36(%rdi),%rbp
rolq $62,%rdx
xorq 68(%rdi),%rcx
rolq $55,%rbp
xorq 12(%rdi),%rax
rolq $2,%rcx
xorq 20(%rdi),%rbx
xchgq %rsi,%rdi
rolq $39,%rax
rolq $41,%rbx
movq %rdx,%r13
andq %rbp,%rdx
notq %rbp
xorq %rcx,%rdx
movq %rdx,92(%rdi)
movq %rax,%r14
andq %rbp,%rax
xorq %r13,%rax
movq %rax,60(%rdi)
orq %rcx,%r13
xorq %rbx,%r13
movq %r13,84(%rdi)
andq %rbx,%rcx
xorq %r14,%rcx
movq %rcx,76(%rdi)
orq %r14,%rbx
xorq %rbp,%rbx
movq %rbx,68(%rdi)
movq %rdx,%rbp
movq %r13,%rdx
testq $255,%r15
jnz L$oop
leaq -192(%r15),%r15
.byte 0xf3,0xc3
.cfi_endproc
.globl _KeccakF1600
.p2align 5
_KeccakF1600:
.cfi_startproc
.byte 0xf3,0x0f,0x1e,0xfa
pushq %rbx
.cfi_adjust_cfa_offset 8
.cfi_offset %rbx,-16
pushq %rbp
.cfi_adjust_cfa_offset 8
.cfi_offset %rbp,-24
pushq %r12
.cfi_adjust_cfa_offset 8
.cfi_offset %r12,-32
pushq %r13
.cfi_adjust_cfa_offset 8
.cfi_offset %r13,-40
pushq %r14
.cfi_adjust_cfa_offset 8
.cfi_offset %r14,-48
pushq %r15
.cfi_adjust_cfa_offset 8
.cfi_offset %r15,-56
leaq 100(%rdi),%rdi
subq $200,%rsp
.cfi_adjust_cfa_offset 200
notq -92(%rdi)
notq -84(%rdi)
notq -36(%rdi)
notq -4(%rdi)
notq 36(%rdi)
notq 60(%rdi)
leaq iotas(%rip),%r15
leaq 100(%rsp),%rsi
call __KeccakF1600
notq -92(%rdi)
notq -84(%rdi)
notq -36(%rdi)
notq -4(%rdi)
notq 36(%rdi)
notq 60(%rdi)
leaq -100(%rdi),%rdi
addq $200,%rsp
.cfi_adjust_cfa_offset -200
popq %r15
.cfi_adjust_cfa_offset -8
.cfi_restore %r15
popq %r14
.cfi_adjust_cfa_offset -8
.cfi_restore %r14
popq %r13
.cfi_adjust_cfa_offset -8
.cfi_restore %r13
popq %r12
.cfi_adjust_cfa_offset -8
.cfi_restore %r12
popq %rbp
.cfi_adjust_cfa_offset -8
.cfi_restore %rbp
popq %rbx
.cfi_adjust_cfa_offset -8
.cfi_restore %rbx
.byte 0xf3,0xc3
.cfi_endproc
.p2align 8
.quad 0,0,0,0,0,0,0,0
iotas:
.quad 0x0000000000000001
.quad 0x0000000000008082
.quad 0x800000000000808a
.quad 0x8000000080008000
.quad 0x000000000000808b
.quad 0x0000000080000001
.quad 0x8000000080008081
.quad 0x8000000000008009
.quad 0x000000000000008a
.quad 0x0000000000000088
.quad 0x0000000080008009
.quad 0x000000008000000a
.quad 0x000000008000808b
.quad 0x800000000000008b
.quad 0x8000000000008089
.quad 0x8000000000008003
.quad 0x8000000000008002
.quad 0x8000000000000080
.quad 0x000000000000800a
.quad 0x800000008000000a
.quad 0x8000000080008081
.quad 0x8000000000008080
.quad 0x0000000080000001
.quad 0x8000000080008008
.byte 75,101,99,99,97,107,45,49,54,48,48,32,97,98,115,111,114,98,32,97,110,100,32,115,113,117,101,101,122,101,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
|
verdict-x509/verdict
| 210,728
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-mingw.S
|
.text
.global aes128_key_expansion
aes128_key_expansion:
movdqu 0(%rcx), %xmm1
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global aes128_keyhash_init
aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rdx)
mov %rcx, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rdx, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global aes256_key_expansion
aes256_key_expansion:
movdqu 0(%rcx), %xmm1
movdqu 16(%rcx), %xmm3
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global aes256_keyhash_init
aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rdx)
mov %rcx, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rdx, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global gctr128_bytes
gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov 272(%rsp), %rax
movdqu 0(%rax), %xmm7
mov %rcx, %rax
mov %r8, %rbx
mov %rdx, %rsi
mov %r9, %r13
mov 264(%rsp), %r8
mov 280(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gctr256_bytes
gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov 272(%rsp), %rax
movdqu 0(%rax), %xmm7
mov %rcx, %rax
mov %r8, %rbx
mov %rdx, %rsi
mov %r9, %r13
mov 264(%rsp), %r8
mov 280(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global compute_iv_stdcall
compute_iv_stdcall:
cmp $12, %rdx
jne L16
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 56(%rsp), %r8
mov 64(%rsp), %r9
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
pop %rsi
pop %rdi
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global gcm128_encrypt_opt
gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm256_encrypt_opt
gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm128_decrypt_opt
gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global gcm256_decrypt_opt
gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
pextrq $0, %xmm15, %rax
push %rax
pextrq $1, %xmm15, %rax
push %rax
pextrq $0, %xmm14, %rax
push %rax
pextrq $1, %xmm14, %rax
push %rax
pextrq $0, %xmm13, %rax
push %rax
pextrq $1, %xmm13, %rax
push %rax
pextrq $0, %xmm12, %rax
push %rax
pextrq $1, %xmm12, %rax
push %rax
pextrq $0, %xmm11, %rax
push %rax
pextrq $1, %xmm11, %rax
push %rax
pextrq $0, %xmm10, %rax
push %rax
pextrq $1, %xmm10, %rax
push %rax
pextrq $0, %xmm9, %rax
push %rax
pextrq $1, %xmm9, %rax
push %rax
pextrq $0, %xmm8, %rax
push %rax
pextrq $1, %xmm8, %rax
push %rax
pextrq $0, %xmm7, %rax
push %rax
pextrq $1, %xmm7, %rax
push %rax
pextrq $0, %xmm6, %rax
push %rax
pextrq $1, %xmm6, %rax
push %rax
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
mov %r9, %rcx
mov 264(%rsp), %r8
mov 272(%rsp), %r9
mov 352(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 280(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 288(%rsp), %rdi
mov 296(%rsp), %rsi
mov 304(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 312(%rsp), %rax
mov 320(%rsp), %rdi
mov 328(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 304(%rsp), %r14
imul $16, %r14
mov 344(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 336(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 360(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rax
pinsrq $1, %rax, %xmm6
pop %rax
pinsrq $0, %rax, %xmm6
pop %rax
pinsrq $1, %rax, %xmm7
pop %rax
pinsrq $0, %rax, %xmm7
pop %rax
pinsrq $1, %rax, %xmm8
pop %rax
pinsrq $0, %rax, %xmm8
pop %rax
pinsrq $1, %rax, %xmm9
pop %rax
pinsrq $0, %rax, %xmm9
pop %rax
pinsrq $1, %rax, %xmm10
pop %rax
pinsrq $0, %rax, %xmm10
pop %rax
pinsrq $1, %rax, %xmm11
pop %rax
pinsrq $0, %rax, %xmm11
pop %rax
pinsrq $1, %rax, %xmm12
pop %rax
pinsrq $0, %rax, %xmm12
pop %rax
pinsrq $1, %rax, %xmm13
pop %rax
pinsrq $0, %rax, %xmm13
pop %rax
pinsrq $1, %rax, %xmm14
pop %rax
pinsrq $0, %rax, %xmm14
pop %rax
pinsrq $1, %rax, %xmm15
pop %rax
pinsrq $0, %rax, %xmm15
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
|
verdict-x509/verdict
| 18,944
|
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-linux.S
|
.text
.global add_scalar_e
add_scalar_e:
push %rdi
push %rsi
;# Clear registers to propagate the carry bit
xor %r8d, %r8d
xor %r9d, %r9d
xor %r10d, %r10d
xor %r11d, %r11d
xor %eax, %eax
;# Begin addition chain
addq 0(%rsi), %rdx
movq %rdx, 0(%rdi)
adcxq 8(%rsi), %r8
movq %r8, 8(%rdi)
adcxq 16(%rsi), %r9
movq %r9, 16(%rdi)
adcxq 24(%rsi), %r10
movq %r10, 24(%rdi)
;# Return the carry bit in a register
adcx %r11, %rax
pop %rsi
pop %rdi
ret
.global fadd_e
fadd_e:
;# Compute the raw addition of f1 + f2
movq 0(%rdx), %r8
addq 0(%rsi), %r8
movq 8(%rdx), %r9
adcxq 8(%rsi), %r9
movq 16(%rdx), %r10
adcxq 16(%rsi), %r10
movq 24(%rdx), %r11
adcxq 24(%rsi), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rdx
cmovc %rdx, %rax
;# Step 2: Add carry*38 to the original sum
xor %ecx, %ecx
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
ret
.global fsub_e
fsub_e:
;# Compute the raw substraction of f1-f2
movq 0(%rsi), %r8
subq 0(%rdx), %r8
movq 8(%rsi), %r9
sbbq 8(%rdx), %r9
movq 16(%rsi), %r10
sbbq 16(%rdx), %r10
movq 24(%rsi), %r11
sbbq 24(%rdx), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rcx
cmovc %rcx, %rax
;# Step 2: Substract carry*38 from the original difference
sub %rax, %r8
sbb $0, %r9
sbb $0, %r10
sbb $0, %r11
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rcx, %rax
sub %rax, %r8
;# Store the result
movq %r8, 0(%rdi)
movq %r9, 8(%rdi)
movq %r10, 16(%rdi)
movq %r11, 24(%rdi)
ret
.global fmul_scalar_e
fmul_scalar_e:
push %rdi
push %r13
push %rbx
;# Compute the raw multiplication of f1*f2
mulxq 0(%rsi), %r8, %rcx
;# f1[0]*f2
mulxq 8(%rsi), %r9, %rbx
;# f1[1]*f2
add %rcx, %r9
mov $0, %rcx
mulxq 16(%rsi), %r10, %r13
;# f1[2]*f2
adcx %rbx, %r10
mulxq 24(%rsi), %r11, %rax
;# f1[3]*f2
adcx %r13, %r11
adcx %rcx, %rax
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $38, %rdx
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r13
pop %rdi
ret
.global fmul_e
fmul_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication: tmp <- src1 * src2
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fmul2_e
fmul2_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0]
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1]
;# Compute src1[0] * src2
movq 32(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 64(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 72(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 40(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 72(%rdi), %r8
movq %r8, 72(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 80(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 48(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 80(%rdi), %r8
movq %r8, 80(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 88(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 56(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 88(%rdi), %r8
movq %r8, 88(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 96(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 104(%rdi)
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 112(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the results back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fsqr_e
fsqr_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Compute the raw multiplication: tmp <- f * f
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global fsqr2_e
fsqr2_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Step 1: Compute all partial products
movq 32(%rsi), %rdx
;# f[0]
mulxq 40(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 48(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 56(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 56(%rsi), %rdx
;# f[3]
mulxq 40(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 48(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 40(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 48(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 32(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 64(%rdi)
add %rcx, %r8
movq %r8, 72(%rdi)
movq 40(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 80(%rdi)
adcx %rcx, %r10
movq %r10, 88(%rdi)
movq 48(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 96(%rdi)
adcx %rcx, %rbx
movq %rbx, 104(%rdi)
movq 56(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 112(%rdi)
adcx %rcx, %r14
movq %r14, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global cswap2_e
cswap2_e:
;# Transfer bit into CF flag
add $18446744073709551615, %rdi
;# cswap p1[0], p2[0]
movq 0(%rsi), %r8
movq 0(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 0(%rsi)
movq %r9, 0(%rdx)
;# cswap p1[1], p2[1]
movq 8(%rsi), %r8
movq 8(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 8(%rsi)
movq %r9, 8(%rdx)
;# cswap p1[2], p2[2]
movq 16(%rsi), %r8
movq 16(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 16(%rsi)
movq %r9, 16(%rdx)
;# cswap p1[3], p2[3]
movq 24(%rsi), %r8
movq 24(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 24(%rsi)
movq %r9, 24(%rdx)
;# cswap p1[4], p2[4]
movq 32(%rsi), %r8
movq 32(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 32(%rsi)
movq %r9, 32(%rdx)
;# cswap p1[5], p2[5]
movq 40(%rsi), %r8
movq 40(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 40(%rsi)
movq %r9, 40(%rdx)
;# cswap p1[6], p2[6]
movq 48(%rsi), %r8
movq 48(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 48(%rsi)
movq %r9, 48(%rdx)
;# cswap p1[7], p2[7]
movq 56(%rsi), %r8
movq 56(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 56(%rsi)
movq %r9, 56(%rdx)
ret
.section .note.GNU-stack,"",%progbits
|
verdict-x509/verdict
| 19,666
|
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-mingw.S
|
.text
.global add_scalar_e
add_scalar_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Clear registers to propagate the carry bit
xor %r8d, %r8d
xor %r9d, %r9d
xor %r10d, %r10d
xor %r11d, %r11d
xor %eax, %eax
;# Begin addition chain
addq 0(%rsi), %rdx
movq %rdx, 0(%rdi)
adcxq 8(%rsi), %r8
movq %r8, 8(%rdi)
adcxq 16(%rsi), %r9
movq %r9, 16(%rdi)
adcxq 24(%rsi), %r10
movq %r10, 24(%rdi)
;# Return the carry bit in a register
adcx %r11, %rax
pop %rsi
pop %rdi
ret
.global fadd_e
fadd_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Compute the raw addition of f1 + f2
movq 0(%rdx), %r8
addq 0(%rsi), %r8
movq 8(%rdx), %r9
adcxq 8(%rsi), %r9
movq 16(%rdx), %r10
adcxq 16(%rsi), %r10
movq 24(%rdx), %r11
adcxq 24(%rsi), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rdx
cmovc %rdx, %rax
;# Step 2: Add carry*38 to the original sum
xor %ecx, %ecx
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rsi
pop %rdi
ret
.global fsub_e
fsub_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Compute the raw substraction of f1-f2
movq 0(%rsi), %r8
subq 0(%rdx), %r8
movq 8(%rsi), %r9
sbbq 8(%rdx), %r9
movq 16(%rsi), %r10
sbbq 16(%rdx), %r10
movq 24(%rsi), %r11
sbbq 24(%rdx), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rcx
cmovc %rcx, %rax
;# Step 2: Substract carry*38 from the original difference
sub %rax, %r8
sbb $0, %r9
sbb $0, %r10
sbb $0, %r11
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rcx, %rax
sub %rax, %r8
;# Store the result
movq %r8, 0(%rdi)
movq %r9, 8(%rdi)
movq %r10, 16(%rdi)
movq %r11, 24(%rdi)
pop %rsi
pop %rdi
ret
.global fmul_scalar_e
fmul_scalar_e:
push %rdi
push %r13
push %rbx
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Compute the raw multiplication of f1*f2
mulxq 0(%rsi), %r8, %rcx
;# f1[0]*f2
mulxq 8(%rsi), %r9, %rbx
;# f1[1]*f2
add %rcx, %r9
mov $0, %rcx
mulxq 16(%rsi), %r10, %r13
;# f1[2]*f2
adcx %rbx, %r10
mulxq 24(%rsi), %r11, %rax
;# f1[3]*f2
adcx %r13, %r11
adcx %rcx, %rax
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $38, %rdx
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rsi
pop %rbx
pop %r13
pop %rdi
ret
.global fmul_e
fmul_e:
push %r13
push %r14
push %r15
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r15
mov %r9, %rcx
;# Compute the raw multiplication: tmp <- src1 * src2
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fmul2_e
fmul2_e:
push %r13
push %r14
push %r15
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r15
mov %r9, %rcx
;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0]
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1]
;# Compute src1[0] * src2
movq 32(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 64(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 72(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 40(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 72(%rdi), %r8
movq %r8, 72(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 80(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 48(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 80(%rdi), %r8
movq %r8, 80(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 88(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 56(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 88(%rdi), %r8
movq %r8, 88(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 96(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 104(%rdi)
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 112(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the results back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global fsqr_e
fsqr_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r12
;# Compute the raw multiplication: tmp <- f * f
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global fsqr2_e
fsqr2_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
push %rsi
push %rdi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %r12
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Step 1: Compute all partial products
movq 32(%rsi), %rdx
;# f[0]
mulxq 40(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 48(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 56(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 56(%rsi), %rdx
;# f[3]
mulxq 40(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 48(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 40(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 48(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 32(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 64(%rdi)
add %rcx, %r8
movq %r8, 72(%rdi)
movq 40(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 80(%rdi)
adcx %rcx, %r10
movq %r10, 88(%rdi)
movq 48(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 96(%rdi)
adcx %rcx, %rbx
movq %rbx, 104(%rdi)
movq 56(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 112(%rdi)
adcx %rcx, %r14
movq %r14, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rdi
pop %rsi
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global cswap2_e
cswap2_e:
push %rdi
push %rsi
mov %rcx, %rdi
mov %rdx, %rsi
mov %r8, %rdx
;# Transfer bit into CF flag
add $18446744073709551615, %rdi
;# cswap p1[0], p2[0]
movq 0(%rsi), %r8
movq 0(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 0(%rsi)
movq %r9, 0(%rdx)
;# cswap p1[1], p2[1]
movq 8(%rsi), %r8
movq 8(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 8(%rsi)
movq %r9, 8(%rdx)
;# cswap p1[2], p2[2]
movq 16(%rsi), %r8
movq 16(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 16(%rsi)
movq %r9, 16(%rdx)
;# cswap p1[3], p2[3]
movq 24(%rsi), %r8
movq 24(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 24(%rsi)
movq %r9, 24(%rdx)
;# cswap p1[4], p2[4]
movq 32(%rsi), %r8
movq 32(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 32(%rsi)
movq %r9, 32(%rdx)
;# cswap p1[5], p2[5]
movq 40(%rsi), %r8
movq 40(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 40(%rsi)
movq %r9, 40(%rdx)
;# cswap p1[6], p2[6]
movq 48(%rsi), %r8
movq 48(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 48(%rsi)
movq %r9, 48(%rdx)
;# cswap p1[7], p2[7]
movq 56(%rsi), %r8
movq 56(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 56(%rsi)
movq %r9, 56(%rdx)
pop %rsi
pop %rdi
ret
|
verdict-x509/verdict
| 18,925
|
deps/libcrux/sys/hacl/c/vale/src/curve25519-x86_64-darwin.S
|
.text
.global _add_scalar_e
_add_scalar_e:
push %rdi
push %rsi
;# Clear registers to propagate the carry bit
xor %r8d, %r8d
xor %r9d, %r9d
xor %r10d, %r10d
xor %r11d, %r11d
xor %eax, %eax
;# Begin addition chain
addq 0(%rsi), %rdx
movq %rdx, 0(%rdi)
adcxq 8(%rsi), %r8
movq %r8, 8(%rdi)
adcxq 16(%rsi), %r9
movq %r9, 16(%rdi)
adcxq 24(%rsi), %r10
movq %r10, 24(%rdi)
;# Return the carry bit in a register
adcx %r11, %rax
pop %rsi
pop %rdi
ret
.global _fadd_e
_fadd_e:
;# Compute the raw addition of f1 + f2
movq 0(%rdx), %r8
addq 0(%rsi), %r8
movq 8(%rdx), %r9
adcxq 8(%rsi), %r9
movq 16(%rdx), %r10
adcxq 16(%rsi), %r10
movq 24(%rdx), %r11
adcxq 24(%rsi), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rdx
cmovc %rdx, %rax
;# Step 2: Add carry*38 to the original sum
xor %ecx, %ecx
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
ret
.global _fsub_e
_fsub_e:
;# Compute the raw substraction of f1-f2
movq 0(%rsi), %r8
subq 0(%rdx), %r8
movq 8(%rsi), %r9
sbbq 8(%rdx), %r9
movq 16(%rsi), %r10
sbbq 16(%rdx), %r10
movq 24(%rsi), %r11
sbbq 24(%rdx), %r11
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $0, %rax
mov $38, %rcx
cmovc %rcx, %rax
;# Step 2: Substract carry*38 from the original difference
sub %rax, %r8
sbb $0, %r9
sbb $0, %r10
sbb $0, %r11
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rcx, %rax
sub %rax, %r8
;# Store the result
movq %r8, 0(%rdi)
movq %r9, 8(%rdi)
movq %r10, 16(%rdi)
movq %r11, 24(%rdi)
ret
.global _fmul_scalar_e
_fmul_scalar_e:
push %rdi
push %r13
push %rbx
;# Compute the raw multiplication of f1*f2
mulxq 0(%rsi), %r8, %rcx
;# f1[0]*f2
mulxq 8(%rsi), %r9, %rbx
;# f1[1]*f2
add %rcx, %r9
mov $0, %rcx
mulxq 16(%rsi), %r10, %r13
;# f1[2]*f2
adcx %rbx, %r10
mulxq 24(%rsi), %r11, %rax
;# f1[3]*f2
adcx %r13, %r11
adcx %rcx, %rax
;# Wrap the result back into the field
;# Step 1: Compute carry*38
mov $38, %rdx
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r13
pop %rdi
ret
.global _fmul_e
_fmul_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication: tmp <- src1 * src2
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global _fmul2_e
_fmul2_e:
push %r13
push %r14
push %r15
push %rbx
mov %rdx, %r15
;# Compute the raw multiplication tmp[0] <- f1[0] * f2[0]
;# Compute src1[0] * src2
movq 0(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 0(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 8(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 8(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 8(%rdi), %r8
movq %r8, 8(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 16(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 16(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 16(%rdi), %r8
movq %r8, 16(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 24(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 24(%rsi), %rdx
mulxq 0(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 24(%rdi), %r8
movq %r8, 24(%rdi)
mulxq 8(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 32(%rdi)
mulxq 16(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 40(%rdi)
mov $0, %r8
mulxq 24(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 48(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 56(%rdi)
;# Compute the raw multiplication tmp[1] <- f1[1] * f2[1]
;# Compute src1[0] * src2
movq 32(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
movq %r8, 64(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
movq %r10, 72(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
mov $0, %rax
adox %rdx, %rax
;# Compute src1[1] * src2
movq 40(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 72(%rdi), %r8
movq %r8, 72(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 80(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[2] * src2
movq 48(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 80(%rdi), %r8
movq %r8, 80(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 88(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
;# Compute src1[3] * src2
movq 56(%rsi), %rdx
mulxq 32(%rcx), %r8, %r9
xor %r10d, %r10d
adcxq 88(%rdi), %r8
movq %r8, 88(%rdi)
mulxq 40(%rcx), %r10, %r11
adox %r9, %r10
adcx %rbx, %r10
movq %r10, 96(%rdi)
mulxq 48(%rcx), %rbx, %r13
adox %r11, %rbx
adcx %r14, %rbx
movq %rbx, 104(%rdi)
mov $0, %r8
mulxq 56(%rcx), %r14, %rdx
adox %r13, %r14
adcx %rax, %r14
movq %r14, 112(%rdi)
mov $0, %rax
adox %rdx, %rax
adcx %r8, %rax
movq %rax, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r15, %rdi
;# Wrap the results back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r15
pop %r14
pop %r13
ret
.global _fsqr_e
_fsqr_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Compute the raw multiplication: tmp <- f * f
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Wrap the result back into the field
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global _fsqr2_e
_fsqr2_e:
push %r15
push %r13
push %r14
push %r12
push %rbx
mov %rdx, %r12
;# Step 1: Compute all partial products
movq 0(%rsi), %rdx
;# f[0]
mulxq 8(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 16(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 24(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 24(%rsi), %rdx
;# f[3]
mulxq 8(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 16(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 8(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 16(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 0(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 0(%rdi)
add %rcx, %r8
movq %r8, 8(%rdi)
movq 8(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 16(%rdi)
adcx %rcx, %r10
movq %r10, 24(%rdi)
movq 16(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 32(%rdi)
adcx %rcx, %rbx
movq %rbx, 40(%rdi)
movq 24(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 48(%rdi)
adcx %rcx, %r14
movq %r14, 56(%rdi)
;# Step 1: Compute all partial products
movq 32(%rsi), %rdx
;# f[0]
mulxq 40(%rsi), %r8, %r14
xor %r15d, %r15d
;# f[1]*f[0]
mulxq 48(%rsi), %r9, %r10
adcx %r14, %r9
;# f[2]*f[0]
mulxq 56(%rsi), %rax, %rcx
adcx %rax, %r10
;# f[3]*f[0]
movq 56(%rsi), %rdx
;# f[3]
mulxq 40(%rsi), %r11, %rbx
adcx %rcx, %r11
;# f[1]*f[3]
mulxq 48(%rsi), %rax, %r13
adcx %rax, %rbx
;# f[2]*f[3]
movq 40(%rsi), %rdx
adcx %r15, %r13
;# f1
mulxq 48(%rsi), %rax, %rcx
mov $0, %r14
;# f[2]*f[1]
;# Step 2: Compute two parallel carry chains
xor %r15d, %r15d
adox %rax, %r10
adcx %r8, %r8
adox %rcx, %r11
adcx %r9, %r9
adox %r15, %rbx
adcx %r10, %r10
adox %r15, %r13
adcx %r11, %r11
adox %r15, %r14
adcx %rbx, %rbx
adcx %r13, %r13
adcx %r14, %r14
;# Step 3: Compute intermediate squares
movq 32(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[0]^2
movq %rax, 64(%rdi)
add %rcx, %r8
movq %r8, 72(%rdi)
movq 40(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[1]^2
adcx %rax, %r9
movq %r9, 80(%rdi)
adcx %rcx, %r10
movq %r10, 88(%rdi)
movq 48(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[2]^2
adcx %rax, %r11
movq %r11, 96(%rdi)
adcx %rcx, %rbx
movq %rbx, 104(%rdi)
movq 56(%rsi), %rdx
mulx %rdx, %rax, %rcx
;# f[3]^2
adcx %rax, %r13
movq %r13, 112(%rdi)
adcx %rcx, %r14
movq %r14, 120(%rdi)
;# Line up pointers
mov %rdi, %rsi
mov %r12, %rdi
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 32(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 0(%rsi), %r8
mulxq 40(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 8(%rsi), %r9
mulxq 48(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 16(%rsi), %r10
mulxq 56(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 24(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 8(%rdi)
adcx %rcx, %r10
movq %r10, 16(%rdi)
adcx %rcx, %r11
movq %r11, 24(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 0(%rdi)
;# Step 1: Compute dst + carry == tmp_hi * 38 + tmp_lo
mov $38, %rdx
mulxq 96(%rsi), %r8, %r13
xor %ecx, %ecx
adoxq 64(%rsi), %r8
mulxq 104(%rsi), %r9, %rbx
adcx %r13, %r9
adoxq 72(%rsi), %r9
mulxq 112(%rsi), %r10, %r13
adcx %rbx, %r10
adoxq 80(%rsi), %r10
mulxq 120(%rsi), %r11, %rax
adcx %r13, %r11
adoxq 88(%rsi), %r11
adcx %rcx, %rax
adox %rcx, %rax
imul %rdx, %rax
;# Step 2: Fold the carry back into dst
add %rax, %r8
adcx %rcx, %r9
movq %r9, 40(%rdi)
adcx %rcx, %r10
movq %r10, 48(%rdi)
adcx %rcx, %r11
movq %r11, 56(%rdi)
;# Step 3: Fold the carry bit back in; guaranteed not to carry at this point
mov $0, %rax
cmovc %rdx, %rax
add %rax, %r8
movq %r8, 32(%rdi)
pop %rbx
pop %r12
pop %r14
pop %r13
pop %r15
ret
.global _cswap2_e
_cswap2_e:
;# Transfer bit into CF flag
add $18446744073709551615, %rdi
;# cswap p1[0], p2[0]
movq 0(%rsi), %r8
movq 0(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 0(%rsi)
movq %r9, 0(%rdx)
;# cswap p1[1], p2[1]
movq 8(%rsi), %r8
movq 8(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 8(%rsi)
movq %r9, 8(%rdx)
;# cswap p1[2], p2[2]
movq 16(%rsi), %r8
movq 16(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 16(%rsi)
movq %r9, 16(%rdx)
;# cswap p1[3], p2[3]
movq 24(%rsi), %r8
movq 24(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 24(%rsi)
movq %r9, 24(%rdx)
;# cswap p1[4], p2[4]
movq 32(%rsi), %r8
movq 32(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 32(%rsi)
movq %r9, 32(%rdx)
;# cswap p1[5], p2[5]
movq 40(%rsi), %r8
movq 40(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 40(%rsi)
movq %r9, 40(%rdx)
;# cswap p1[6], p2[6]
movq 48(%rsi), %r8
movq 48(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 48(%rsi)
movq %r9, 48(%rdx)
;# cswap p1[7], p2[7]
movq 56(%rsi), %r8
movq 56(%rdx), %r9
mov %r8, %r10
cmovc %r9, %r8
cmovc %r10, %r9
movq %r8, 56(%rsi)
movq %r9, 56(%rdx)
ret
|
verdict-x509/verdict
| 2,344
|
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-mingw.S
|
.text
.global check_aesni
check_aesni:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $33554432, %rax
shr $24, %rax
and $2, %rcx
and %rcx, %rax
mov %r9, %rbx
ret
.global check_sha
check_sha:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $536870912, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_adx_bmi2
check_adx_bmi2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
and $524288, %rax
shr $11, %rax
and $256, %rbx
and %rbx, %rax
mov %r9, %rbx
ret
.global check_avx
check_avx:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $268435456, %rax
shr $27, %rax
mov %r9, %rbx
ret
.global check_avx2
check_avx2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $32, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_movbe
check_movbe:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $4194304, %rax
shr $21, %rax
mov %r9, %rbx
ret
.global check_sse
check_sse:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $524288, %rax
and $512, %rcx
and $67108864, %rdx
shr $10, %rax
shr $17, %rdx
and %rdx, %rax
and %rcx, %rax
mov %r9, %rbx
ret
.global check_rdrand
check_rdrand:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $1073741824, %rax
shr $29, %rax
mov %r9, %rbx
ret
.global check_avx512
check_avx512:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
mov %rbx, %r10
mov %rbx, %r11
and $65536, %rbx
and $131072, %rax
and $1073741824, %r10
shr $1, %rax
shr $14, %r10
and %rbx, %rax
mov $2147483648, %rbx
and %rbx, %r11
shr $15, %r11
and %r10, %rax
and %r11, %rax
mov %r9, %rbx
ret
.global check_osxsave
check_osxsave:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $134217728, %rax
shr $26, %rax
mov %r9, %rbx
ret
.global check_avx_xcr0
check_avx_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
and $4, %rax
shr $1, %rax
and $2, %rcx
and %rcx, %rax
ret
.global check_avx512_xcr0
check_avx512_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
mov %rax, %rdx
and $32, %rax
and $64, %rcx
and $128, %rdx
shr $2, %rdx
shr $1, %rcx
and %rdx, %rax
and %rcx, %rax
ret
|
verdict-x509/verdict
| 199,564
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-darwin.S
|
.text
.global _aes128_key_expansion
_aes128_key_expansion:
movdqu 0(%rdi), %xmm1
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global _aes128_keyhash_init
_aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global _aes256_key_expansion
_aes256_key_expansion:
movdqu 0(%rdi), %xmm1
movdqu 16(%rdi), %xmm3
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global _aes256_keyhash_init
_aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global _gctr128_bytes
_gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _gctr256_bytes
_gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _compute_iv_stdcall
_compute_iv_stdcall:
cmp $12, %rsi
jne L16
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global _gcm128_encrypt_opt
_gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _gcm256_encrypt_opt
_gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global _gcm128_decrypt_opt
_gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global _gcm256_decrypt_opt
_gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
|
verdict-x509/verdict
| 2,368
|
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-darwin.S
|
.text
.global _check_aesni
_check_aesni:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $33554432, %rax
shr $24, %rax
and $2, %rcx
and %rcx, %rax
mov %r9, %rbx
ret
.global _check_sha
_check_sha:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $536870912, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global _check_adx_bmi2
_check_adx_bmi2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
and $524288, %rax
shr $11, %rax
and $256, %rbx
and %rbx, %rax
mov %r9, %rbx
ret
.global _check_avx
_check_avx:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $268435456, %rax
shr $27, %rax
mov %r9, %rbx
ret
.global _check_avx2
_check_avx2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $32, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global _check_movbe
_check_movbe:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $4194304, %rax
shr $21, %rax
mov %r9, %rbx
ret
.global _check_sse
_check_sse:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $524288, %rax
and $512, %rcx
and $67108864, %rdx
shr $10, %rax
shr $17, %rdx
and %rdx, %rax
and %rcx, %rax
mov %r9, %rbx
ret
.global _check_rdrand
_check_rdrand:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $1073741824, %rax
shr $29, %rax
mov %r9, %rbx
ret
.global _check_avx512
_check_avx512:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
mov %rbx, %r10
mov %rbx, %r11
and $65536, %rbx
and $131072, %rax
and $1073741824, %r10
shr $1, %rax
shr $14, %r10
and %rbx, %rax
mov $2147483648, %rbx
and %rbx, %r11
shr $15, %r11
and %r10, %rax
and %r11, %rax
mov %r9, %rbx
ret
.global _check_osxsave
_check_osxsave:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $134217728, %rax
shr $26, %rax
mov %r9, %rbx
ret
.global _check_avx_xcr0
_check_avx_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
and $4, %rax
shr $1, %rax
and $2, %rcx
and %rcx, %rax
ret
.global _check_avx512_xcr0
_check_avx512_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
mov %rax, %rdx
and $32, %rax
and $64, %rcx
and $128, %rdx
shr $2, %rdx
shr $1, %rcx
and %rdx, %rax
and %rcx, %rax
ret
|
verdict-x509/verdict
| 199,579
|
deps/libcrux/sys/hacl/c/vale/src/aesgcm-x86_64-linux.S
|
.text
.global aes128_key_expansion
aes128_key_expansion:
movdqu 0(%rdi), %xmm1
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
aeskeygenassist $1, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 16(%rdx)
aeskeygenassist $2, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $4, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 48(%rdx)
aeskeygenassist $8, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $16, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 80(%rdx)
aeskeygenassist $32, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $64, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 112(%rdx)
aeskeygenassist $128, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $27, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 144(%rdx)
aeskeygenassist $54, %xmm1, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
vpslldq $4, %xmm1, %xmm3
pxor %xmm3, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
ret
.global aes128_keyhash_init
aes128_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global aes256_key_expansion
aes256_key_expansion:
movdqu 0(%rdi), %xmm1
movdqu 16(%rdi), %xmm3
mov %rsi, %rdx
movdqu %xmm1, 0(%rdx)
movdqu %xmm3, 16(%rdx)
aeskeygenassist $1, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 32(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 48(%rdx)
aeskeygenassist $2, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 64(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 80(%rdx)
aeskeygenassist $4, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 96(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 112(%rdx)
aeskeygenassist $8, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 128(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 144(%rdx)
aeskeygenassist $16, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 160(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 176(%rdx)
aeskeygenassist $32, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 192(%rdx)
aeskeygenassist $0, %xmm1, %xmm2
pshufd $170, %xmm2, %xmm2
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
vpslldq $4, %xmm3, %xmm4
pxor %xmm4, %xmm3
pxor %xmm2, %xmm3
movdqu %xmm3, 208(%rdx)
aeskeygenassist $64, %xmm3, %xmm2
pshufd $255, %xmm2, %xmm2
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
vpslldq $4, %xmm1, %xmm4
pxor %xmm4, %xmm1
pxor %xmm2, %xmm1
movdqu %xmm1, 224(%rdx)
pxor %xmm1, %xmm1
pxor %xmm2, %xmm2
pxor %xmm3, %xmm3
pxor %xmm4, %xmm4
ret
.global aes256_keyhash_init
aes256_keyhash_init:
mov $579005069656919567, %r8
pinsrq $0, %r8, %xmm4
mov $283686952306183, %r8
pinsrq $1, %r8, %xmm4
pxor %xmm0, %xmm0
movdqu %xmm0, 80(%rsi)
mov %rdi, %r8
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm4, %xmm0
mov %rsi, %rcx
movdqu %xmm0, 32(%rcx)
movdqu %xmm6, %xmm0
mov %r12, %rax
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 0(%rcx)
movdqu %xmm6, %xmm1
movdqu %xmm6, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 16(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 48(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 64(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 96(%rcx)
movdqu %xmm6, %xmm2
movdqu 32(%rcx), %xmm1
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm6
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
movdqu %xmm1, %xmm5
pclmulqdq $16, %xmm2, %xmm1
movdqu %xmm1, %xmm3
movdqu %xmm5, %xmm1
pclmulqdq $1, %xmm2, %xmm1
movdqu %xmm1, %xmm4
movdqu %xmm5, %xmm1
pclmulqdq $0, %xmm2, %xmm1
pclmulqdq $17, %xmm2, %xmm5
movdqu %xmm5, %xmm2
movdqu %xmm1, %xmm5
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm4, %xmm1
mov $0, %r12
pinsrd $0, %r12d, %xmm1
pshufd $14, %xmm1, %xmm1
pxor %xmm1, %xmm2
movdqu %xmm3, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm1
pshufd $79, %xmm1, %xmm1
mov $0, %r12
pinsrd $3, %r12d, %xmm4
pshufd $79, %xmm4, %xmm4
pxor %xmm4, %xmm1
pxor %xmm5, %xmm1
movdqu %xmm1, %xmm3
psrld $31, %xmm3
movdqu %xmm2, %xmm4
psrld $31, %xmm4
pslld $1, %xmm1
pslld $1, %xmm2
vpslldq $4, %xmm3, %xmm5
vpslldq $4, %xmm4, %xmm4
mov $0, %r12
pinsrd $0, %r12d, %xmm3
pshufd $3, %xmm3, %xmm3
pxor %xmm4, %xmm3
pxor %xmm5, %xmm1
pxor %xmm3, %xmm2
movdqu %xmm2, %xmm5
pxor %xmm2, %xmm2
mov $3774873600, %r12
pinsrd $3, %r12d, %xmm2
pclmulqdq $17, %xmm2, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pxor %xmm5, %xmm1
pxor %xmm6, %xmm1
movdqu %xmm1, %xmm6
movdqu %xmm1, %xmm3
pxor %xmm4, %xmm4
pxor %xmm5, %xmm5
mov $3254779904, %r12
pinsrd $3, %r12d, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
mov $2147483648, %r12
pinsrd $3, %r12d, %xmm5
movdqu %xmm3, %xmm1
movdqu %xmm1, %xmm2
psrld $31, %xmm2
pslld $1, %xmm1
vpslldq $4, %xmm2, %xmm2
pxor %xmm2, %xmm1
pand %xmm5, %xmm3
pcmpeqd %xmm5, %xmm3
pshufd $255, %xmm3, %xmm3
pand %xmm4, %xmm3
vpxor %xmm3, %xmm1, %xmm1
movdqu %xmm1, 112(%rcx)
movdqu %xmm0, %xmm6
mov %rax, %r12
ret
.global gctr128_bytes
gctr128_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L0
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L3
.balign 16
L2:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L3:
cmp $0, %rdx
ja L2
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L1
L0:
L1:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L5
.balign 16
L4:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L5:
cmp %rcx, %rdx
jne L4
cmp %rbp, %rsi
jbe L6
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L7
L6:
L7:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gctr256_bytes
gctr256_bytes:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
movdqu 0(%r9), %xmm7
mov %rdi, %rax
mov %rdx, %rbx
mov %rcx, %r13
mov 72(%rsp), %rcx
mov %rcx, %rbp
imul $16, %rbp
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm8
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm8
mov %rcx, %rdx
shr $2, %rdx
and $3, %rcx
cmp $0, %rdx
jbe L8
mov %rax, %r9
mov %rbx, %r10
pshufb %xmm8, %xmm7
movdqu %xmm7, %xmm9
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pshufb %xmm0, %xmm9
movdqu %xmm9, %xmm10
pxor %xmm3, %xmm3
mov $1, %rax
pinsrd $2, %eax, %xmm3
paddd %xmm3, %xmm9
mov $3, %rax
pinsrd $2, %eax, %xmm3
mov $2, %rax
pinsrd $0, %eax, %xmm3
paddd %xmm3, %xmm10
pshufb %xmm8, %xmm9
pshufb %xmm8, %xmm10
pextrq $0, %xmm7, %rdi
mov $283686952306183, %rax
pinsrq $0, %rax, %xmm0
mov $579005069656919567, %rax
pinsrq $1, %rax, %xmm0
pxor %xmm15, %xmm15
mov $4, %rax
pinsrd $0, %eax, %xmm15
mov $4, %rax
pinsrd $2, %eax, %xmm15
jmp L11
.balign 16
L10:
pinsrq $0, %rdi, %xmm2
pinsrq $0, %rdi, %xmm12
pinsrq $0, %rdi, %xmm13
pinsrq $0, %rdi, %xmm14
shufpd $2, %xmm9, %xmm2
shufpd $0, %xmm9, %xmm12
shufpd $2, %xmm10, %xmm13
shufpd $0, %xmm10, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
movdqu 0(%r8), %xmm3
movdqu 16(%r8), %xmm4
movdqu 32(%r8), %xmm5
movdqu 48(%r8), %xmm6
paddd %xmm15, %xmm9
paddd %xmm15, %xmm10
pxor %xmm3, %xmm2
pxor %xmm3, %xmm12
pxor %xmm3, %xmm13
pxor %xmm3, %xmm14
pshufb %xmm0, %xmm9
pshufb %xmm0, %xmm10
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 64(%r8), %xmm3
movdqu 80(%r8), %xmm4
movdqu 96(%r8), %xmm5
movdqu 112(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 128(%r8), %xmm3
movdqu 144(%r8), %xmm4
movdqu 160(%r8), %xmm5
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
movdqu %xmm5, %xmm3
movdqu 176(%r8), %xmm4
movdqu 192(%r8), %xmm5
movdqu 208(%r8), %xmm6
aesenc %xmm3, %xmm2
aesenc %xmm3, %xmm12
aesenc %xmm3, %xmm13
aesenc %xmm3, %xmm14
aesenc %xmm4, %xmm2
aesenc %xmm4, %xmm12
aesenc %xmm4, %xmm13
aesenc %xmm4, %xmm14
aesenc %xmm5, %xmm2
aesenc %xmm5, %xmm12
aesenc %xmm5, %xmm13
aesenc %xmm5, %xmm14
aesenc %xmm6, %xmm2
aesenc %xmm6, %xmm12
aesenc %xmm6, %xmm13
aesenc %xmm6, %xmm14
movdqu 224(%r8), %xmm5
aesenclast %xmm5, %xmm2
aesenclast %xmm5, %xmm12
aesenclast %xmm5, %xmm13
aesenclast %xmm5, %xmm14
movdqu 0(%r9), %xmm7
pxor %xmm7, %xmm2
movdqu 16(%r9), %xmm7
pxor %xmm7, %xmm12
movdqu 32(%r9), %xmm7
pxor %xmm7, %xmm13
movdqu 48(%r9), %xmm7
pxor %xmm7, %xmm14
movdqu %xmm2, 0(%r10)
movdqu %xmm12, 16(%r10)
movdqu %xmm13, 32(%r10)
movdqu %xmm14, 48(%r10)
sub $1, %rdx
add $64, %r9
add $64, %r10
.balign 16
L11:
cmp $0, %rdx
ja L10
movdqu %xmm9, %xmm7
pinsrq $0, %rdi, %xmm7
pshufb %xmm8, %xmm7
mov %r9, %rax
mov %r10, %rbx
jmp L9
L8:
L9:
mov $0, %rdx
mov %rax, %r9
mov %rbx, %r10
pxor %xmm4, %xmm4
mov $1, %r12
pinsrd $0, %r12d, %xmm4
jmp L13
.balign 16
L12:
movdqu %xmm7, %xmm0
pshufb %xmm8, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r9), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rdx
add $16, %r9
add $16, %r10
paddd %xmm4, %xmm7
.balign 16
L13:
cmp %rcx, %rdx
jne L12
cmp %rbp, %rsi
jbe L14
movdqu 0(%r13), %xmm1
movdqu %xmm7, %xmm0
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm2
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm2
pshufb %xmm2, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm1
movdqu %xmm1, 0(%r13)
jmp L15
L14:
L15:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global compute_iv_stdcall
compute_iv_stdcall:
cmp $12, %rsi
jne L16
cmp $12, %rsi
jne L18
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L19
L18:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L21
.balign 16
L20:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L21:
cmp $6, %rdx
jae L20
cmp $0, %rdx
jbe L22
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L24
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L25
L24:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L26
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L28
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L30
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L31
L30:
L31:
jmp L29
L28:
L29:
jmp L27
L26:
L27:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L25:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L23
L22:
L23:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L32
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L34
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L35
L34:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L35:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L33
L32:
L33:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L19:
jmp L17
L16:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
cmp $12, %rsi
jne L36
movdqu 0(%r8), %xmm0
mov $579005069656919567, %rax
pinsrq $0, %rax, %xmm1
mov $283686952306183, %rax
pinsrq $1, %rax, %xmm1
pshufb %xmm1, %xmm0
mov $1, %rax
pinsrd $0, %eax, %xmm0
movdqu %xmm0, 0(%rcx)
jmp L37
L36:
mov %rcx, %rax
add $32, %r9
mov %r8, %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L39
.balign 16
L38:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L39:
cmp $6, %rdx
jae L38
cmp $0, %rdx
jbe L40
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L42
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L43
L42:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L44
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L46
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L48
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L49
L48:
L49:
jmp L47
L46:
L47:
jmp L45
L44:
L45:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L43:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L41
L40:
L41:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L50
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L52
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L53
L52:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L53:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L51
L50:
L51:
mov %rax, %rcx
mov $0, %r11
mov %rsi, %r13
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm8, 0(%rcx)
L37:
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
L17:
ret
.global gcm128_encrypt_opt
gcm128_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L55
.balign 16
L54:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L55:
cmp $6, %rdx
jae L54
cmp $0, %rdx
jbe L56
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L58
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L59
L58:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L60
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L62
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L64
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L65
L64:
L65:
jmp L63
L62:
L63:
jmp L61
L60:
L61:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L59:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L57
L56:
L57:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L66
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L68
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L69
L68:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L69:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L67
L66:
L67:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L70
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L71
L70:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L72
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L73
L72:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L73:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L74
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L75
L74:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L75:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
movdqu 32(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L77
.balign 16
L76:
add $6, %rbx
cmp $256, %rbx
jb L78
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L79
L78:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L79:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L80
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L81
L80:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L81:
.balign 16
L77:
cmp $0, %rdx
ja L76
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L71:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L83
.balign 16
L82:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L83:
cmp %rdx, %rbx
jne L82
mov %rdi, %r11
jmp L85
.balign 16
L84:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L85:
cmp $6, %rdx
jae L84
cmp $0, %rdx
jbe L86
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L88
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L89
L88:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L90
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L92
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L94
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L95
L94:
L95:
jmp L93
L92:
L93:
jmp L91
L90:
L91:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L89:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L87
L86:
L87:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L96
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L98
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L99
L98:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L99:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L97
L96:
L97:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm256_encrypt_opt
gcm256_encrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L101
.balign 16
L100:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L101:
cmp $6, %rdx
jae L100
cmp $0, %rdx
jbe L102
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L104
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L105
L104:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L106
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L108
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L110
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L111
L110:
L111:
jmp L109
L108:
L109:
jmp L107
L106:
L107:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L105:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L103
L102:
L103:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L112
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L114
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L115
L114:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L115:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L113
L112:
L113:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L116
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L117
L116:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rsi), %r14
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L118
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L119
L118:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L119:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
vpshufb %xmm0, %xmm9, %xmm8
vpshufb %xmm0, %xmm10, %xmm2
movdqu %xmm8, 112(%rbp)
vpshufb %xmm0, %xmm11, %xmm4
movdqu %xmm2, 96(%rbp)
vpshufb %xmm0, %xmm12, %xmm5
movdqu %xmm4, 80(%rbp)
vpshufb %xmm0, %xmm13, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm14, %xmm7
movdqu %xmm6, 48(%rbp)
movdqu -128(%rcx), %xmm4
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
movdqu -112(%rcx), %xmm15
mov %rcx, %r12
sub $96, %r12
vpxor %xmm4, %xmm1, %xmm9
add $6, %rbx
cmp $256, %rbx
jae L120
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm2, %xmm11, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm2, %xmm12, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpaddd %xmm2, %xmm14, %xmm1
vpxor %xmm4, %xmm14, %xmm14
jmp L121
L120:
sub $256, %rbx
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm4, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm4, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpxor %xmm4, %xmm12, %xmm12
vpshufb %xmm0, %xmm14, %xmm14
vpxor %xmm4, %xmm13, %xmm13
vpshufb %xmm0, %xmm1, %xmm1
vpxor %xmm4, %xmm14, %xmm14
L121:
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu -16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 16(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 32(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 48(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 64(%rcx), %xmm15
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 80(%rcx), %xmm15
movdqu 96(%rcx), %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor 0(%rdi), %xmm3, %xmm4
vaesenc %xmm15, %xmm10, %xmm10
vpxor 16(%rdi), %xmm3, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
vpxor 32(%rdi), %xmm3, %xmm6
vaesenc %xmm15, %xmm12, %xmm12
vpxor 48(%rdi), %xmm3, %xmm8
vaesenc %xmm15, %xmm13, %xmm13
vpxor 64(%rdi), %xmm3, %xmm2
vaesenc %xmm15, %xmm14, %xmm14
vpxor 80(%rdi), %xmm3, %xmm3
lea 96(%rdi), %rdi
vaesenclast %xmm4, %xmm9, %xmm9
vaesenclast %xmm5, %xmm10, %xmm10
vaesenclast %xmm6, %xmm11, %xmm11
vaesenclast %xmm8, %xmm12, %xmm12
vaesenclast %xmm2, %xmm13, %xmm13
vaesenclast %xmm3, %xmm14, %xmm14
movdqu %xmm9, 0(%rsi)
movdqu %xmm10, 16(%rsi)
movdqu %xmm11, 32(%rsi)
movdqu %xmm12, 48(%rsi)
movdqu %xmm13, 64(%rsi)
movdqu %xmm14, 80(%rsi)
lea 96(%rsi), %rsi
sub $12, %rdx
movdqu 32(%rbp), %xmm8
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
jmp L123
.balign 16
L122:
add $6, %rbx
cmp $256, %rbx
jb L124
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L125
L124:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L125:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
add $96, %r14
cmp $0, %rdx
jbe L126
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L127
L126:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L127:
.balign 16
L123:
cmp $0, %rdx
ja L122
movdqu 32(%rbp), %xmm7
movdqu %xmm1, 32(%rbp)
pxor %xmm4, %xmm4
movdqu %xmm4, 16(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm0
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm0
movdqu %xmm9, -96(%rsi)
vpshufb %xmm0, %xmm9, %xmm9
vpxor %xmm7, %xmm1, %xmm1
movdqu %xmm10, -80(%rsi)
vpshufb %xmm0, %xmm10, %xmm10
movdqu %xmm11, -64(%rsi)
vpshufb %xmm0, %xmm11, %xmm11
movdqu %xmm12, -48(%rsi)
vpshufb %xmm0, %xmm12, %xmm12
movdqu %xmm13, -32(%rsi)
vpshufb %xmm0, %xmm13, %xmm13
movdqu %xmm14, -16(%rsi)
vpshufb %xmm0, %xmm14, %xmm14
pxor %xmm4, %xmm4
movdqu %xmm14, %xmm7
movdqu %xmm4, 16(%rbp)
movdqu %xmm13, 48(%rbp)
movdqu %xmm12, 64(%rbp)
movdqu %xmm11, 80(%rbp)
movdqu %xmm10, 96(%rbp)
movdqu %xmm9, 112(%rbp)
movdqu -32(%r9), %xmm3
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
movdqu 48(%rbp), %xmm0
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
movdqu -16(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
movdqu 16(%r9), %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vpxor %xmm5, %xmm6, %xmm6
vpxor %xmm1, %xmm6, %xmm6
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $3254779904, %rax
pinsrd $3, %eax, %xmm3
vpxor %xmm8, %xmm7, %xmm7
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
sub $128, %rcx
L117:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L129
.balign 16
L128:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L129:
cmp %rdx, %rbx
jne L128
mov %rdi, %r11
jmp L131
.balign 16
L130:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L131:
cmp $6, %rdx
jae L130
cmp $0, %rdx
jbe L132
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L134
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L135
L134:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L136
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L138
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L140
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L141
L140:
L141:
jmp L139
L138:
L139:
jmp L137
L136:
L137:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L135:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L133
L132:
L133:
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L142
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%rax), %xmm4
pxor %xmm4, %xmm0
movdqu %xmm0, 0(%rax)
cmp $8, %r10
jae L144
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L145
L144:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L145:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L143
L142:
L143:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu %xmm8, 0(%r15)
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
ret
.global gcm128_decrypt_opt
gcm128_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L147
.balign 16
L146:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L147:
cmp $6, %rdx
jae L146
cmp $0, %rdx
jbe L148
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L150
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L151
L150:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L152
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L154
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L156
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L157
L156:
L157:
jmp L155
L154:
L155:
jmp L153
L152:
L153:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L151:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L149
L148:
L149:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L158
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L160
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L161
L160:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L161:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L159
L158:
L159:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L162
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L163
L162:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L164
sub $96, %r14
jmp L165
L164:
L165:
jmp L167
.balign 16
L166:
add $6, %rbx
cmp $256, %rbx
jb L168
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L169
L168:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L169:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L170
add $96, %r14
jmp L171
L170:
L171:
cmp $0, %rdx
jbe L172
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L173
L172:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L173:
.balign 16
L167:
cmp $0, %rdx
ja L166
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L163:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L175
.balign 16
L174:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L175:
cmp $6, %rdx
jae L174
cmp $0, %rdx
jbe L176
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L178
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L179
L178:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L180
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L182
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L184
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L185
L184:
L185:
jmp L183
L182:
L183:
jmp L181
L180:
L181:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L179:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L177
L176:
L177:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L187
.balign 16
L186:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L187:
cmp %rdx, %rbx
jne L186
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L188
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L190
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L191
L190:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L191:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L189
L188:
L189:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.global gcm256_decrypt_opt
gcm256_decrypt_opt:
push %r15
push %r14
push %r13
push %r12
push %rsi
push %rdi
push %rbp
push %rbx
mov 144(%rsp), %rbp
mov %rcx, %r13
lea 32(%r9), %r9
mov 72(%rsp), %rbx
mov %rdx, %rcx
imul $16, %rcx
mov $579005069656919567, %r10
pinsrq $0, %r10, %xmm9
mov $283686952306183, %r10
pinsrq $1, %r10, %xmm9
pxor %xmm8, %xmm8
mov %rdi, %r11
jmp L193
.balign 16
L192:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L193:
cmp $6, %rdx
jae L192
cmp $0, %rdx
jbe L194
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L196
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L197
L196:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L198
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L200
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L202
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L203
L202:
L203:
jmp L201
L200:
L201:
jmp L199
L198:
L199:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L197:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L195
L194:
L195:
mov %rsi, %r15
cmp %rcx, %rsi
jbe L204
movdqu 0(%rbx), %xmm0
mov %rsi, %r10
and $15, %r10
cmp $8, %r10
jae L206
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L207
L206:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L207:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L205
L204:
L205:
mov 80(%rsp), %rdi
mov 88(%rsp), %rsi
mov 96(%rsp), %rdx
mov %r13, %rcx
movdqu %xmm9, %xmm0
movdqu 0(%r8), %xmm1
movdqu %xmm1, 0(%rbp)
pxor %xmm10, %xmm10
mov $1, %r11
pinsrq $0, %r11, %xmm10
vpaddd %xmm10, %xmm1, %xmm1
cmp $0, %rdx
jne L208
vpshufb %xmm0, %xmm1, %xmm1
movdqu %xmm1, 32(%rbp)
jmp L209
L208:
movdqu %xmm8, 32(%rbp)
add $128, %rcx
pextrq $0, %xmm1, %rbx
and $255, %rbx
vpshufb %xmm0, %xmm1, %xmm1
lea 96(%rdi), %r14
movdqu 32(%rbp), %xmm8
movdqu 80(%rdi), %xmm7
movdqu 64(%rdi), %xmm4
movdqu 48(%rdi), %xmm5
movdqu 32(%rdi), %xmm6
vpshufb %xmm0, %xmm7, %xmm7
movdqu 16(%rdi), %xmm2
vpshufb %xmm0, %xmm4, %xmm4
movdqu 0(%rdi), %xmm3
vpshufb %xmm0, %xmm5, %xmm5
movdqu %xmm4, 48(%rbp)
vpshufb %xmm0, %xmm6, %xmm6
movdqu %xmm5, 64(%rbp)
vpshufb %xmm0, %xmm2, %xmm2
movdqu %xmm6, 80(%rbp)
vpshufb %xmm0, %xmm3, %xmm3
movdqu %xmm2, 96(%rbp)
movdqu %xmm3, 112(%rbp)
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vpxor %xmm4, %xmm4, %xmm4
movdqu -128(%rcx), %xmm15
vpaddd %xmm2, %xmm1, %xmm10
vpaddd %xmm2, %xmm10, %xmm11
vpaddd %xmm2, %xmm11, %xmm12
vpaddd %xmm2, %xmm12, %xmm13
vpaddd %xmm2, %xmm13, %xmm14
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm4, 16(%rbp)
cmp $6, %rdx
jne L210
sub $96, %r14
jmp L211
L210:
L211:
jmp L213
.balign 16
L212:
add $6, %rbx
cmp $256, %rbx
jb L214
mov $579005069656919567, %r11
pinsrq $0, %r11, %xmm0
mov $283686952306183, %r11
pinsrq $1, %r11, %xmm0
vpshufb %xmm0, %xmm1, %xmm6
pxor %xmm5, %xmm5
mov $1, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm10
pxor %xmm5, %xmm5
mov $2, %r11
pinsrq $0, %r11, %xmm5
vpaddd %xmm5, %xmm6, %xmm11
movdqu -32(%r9), %xmm3
vpaddd %xmm5, %xmm10, %xmm12
vpshufb %xmm0, %xmm10, %xmm10
vpaddd %xmm5, %xmm11, %xmm13
vpshufb %xmm0, %xmm11, %xmm11
vpxor %xmm15, %xmm10, %xmm10
vpaddd %xmm5, %xmm12, %xmm14
vpshufb %xmm0, %xmm12, %xmm12
vpxor %xmm15, %xmm11, %xmm11
vpaddd %xmm5, %xmm13, %xmm1
vpshufb %xmm0, %xmm13, %xmm13
vpshufb %xmm0, %xmm14, %xmm14
vpshufb %xmm0, %xmm1, %xmm1
sub $256, %rbx
jmp L215
L214:
movdqu -32(%r9), %xmm3
vpaddd %xmm14, %xmm2, %xmm1
vpxor %xmm15, %xmm10, %xmm10
vpxor %xmm15, %xmm11, %xmm11
L215:
movdqu %xmm1, 128(%rbp)
vpclmulqdq $16, %xmm3, %xmm7, %xmm5
vpxor %xmm15, %xmm12, %xmm12
movdqu -112(%rcx), %xmm2
vpclmulqdq $1, %xmm3, %xmm7, %xmm6
vaesenc %xmm2, %xmm9, %xmm9
movdqu 48(%rbp), %xmm0
vpxor %xmm15, %xmm13, %xmm13
vpclmulqdq $0, %xmm3, %xmm7, %xmm1
vaesenc %xmm2, %xmm10, %xmm10
vpxor %xmm15, %xmm14, %xmm14
vpclmulqdq $17, %xmm3, %xmm7, %xmm7
vaesenc %xmm2, %xmm11, %xmm11
movdqu -16(%r9), %xmm3
vaesenc %xmm2, %xmm12, %xmm12
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $0, %xmm3, %xmm0, %xmm5
vpxor %xmm4, %xmm8, %xmm8
vaesenc %xmm2, %xmm13, %xmm13
vpxor %xmm5, %xmm1, %xmm4
vpclmulqdq $16, %xmm3, %xmm0, %xmm1
vaesenc %xmm2, %xmm14, %xmm14
movdqu -96(%rcx), %xmm15
vpclmulqdq $1, %xmm3, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor 16(%rbp), %xmm8, %xmm8
vpclmulqdq $17, %xmm3, %xmm0, %xmm3
movdqu 64(%rbp), %xmm0
vaesenc %xmm15, %xmm10, %xmm10
movbeq 88(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 80(%r14), %r12
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 32(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 40(%rbp)
movdqu 16(%r9), %xmm5
vaesenc %xmm15, %xmm14, %xmm14
movdqu -80(%rcx), %xmm15
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm3, %xmm7, %xmm7
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vaesenc %xmm15, %xmm11, %xmm11
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 80(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vaesenc %xmm15, %xmm14, %xmm14
movdqu -64(%rcx), %xmm15
vpxor %xmm2, %xmm6, %xmm6
vpclmulqdq $0, %xmm1, %xmm0, %xmm2
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $16, %xmm1, %xmm0, %xmm3
vaesenc %xmm15, %xmm10, %xmm10
movbeq 72(%r14), %r13
vpxor %xmm5, %xmm7, %xmm7
vpclmulqdq $1, %xmm1, %xmm0, %xmm5
vaesenc %xmm15, %xmm11, %xmm11
movbeq 64(%r14), %r12
vpclmulqdq $17, %xmm1, %xmm0, %xmm1
movdqu 96(%rbp), %xmm0
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 48(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 56(%rbp)
vpxor %xmm2, %xmm4, %xmm4
movdqu 64(%r9), %xmm2
vaesenc %xmm15, %xmm14, %xmm14
movdqu -48(%rcx), %xmm15
vpxor %xmm3, %xmm6, %xmm6
vpclmulqdq $0, %xmm2, %xmm0, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm2, %xmm0, %xmm5
vaesenc %xmm15, %xmm10, %xmm10
movbeq 56(%r14), %r13
vpxor %xmm1, %xmm7, %xmm7
vpclmulqdq $1, %xmm2, %xmm0, %xmm1
vpxor 112(%rbp), %xmm8, %xmm8
vaesenc %xmm15, %xmm11, %xmm11
movbeq 48(%r14), %r12
vpclmulqdq $17, %xmm2, %xmm0, %xmm2
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 64(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 72(%rbp)
vpxor %xmm3, %xmm4, %xmm4
movdqu 80(%r9), %xmm3
vaesenc %xmm15, %xmm14, %xmm14
movdqu -32(%rcx), %xmm15
vpxor %xmm5, %xmm6, %xmm6
vpclmulqdq $16, %xmm3, %xmm8, %xmm5
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm1, %xmm6, %xmm6
vpclmulqdq $1, %xmm3, %xmm8, %xmm1
vaesenc %xmm15, %xmm10, %xmm10
movbeq 40(%r14), %r13
vpxor %xmm2, %xmm7, %xmm7
vpclmulqdq $0, %xmm3, %xmm8, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
movbeq 32(%r14), %r12
vpclmulqdq $17, %xmm3, %xmm8, %xmm8
vaesenc %xmm15, %xmm12, %xmm12
movq %r13, 80(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
movq %r12, 88(%rbp)
vpxor %xmm5, %xmm6, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor %xmm1, %xmm6, %xmm6
movdqu -16(%rcx), %xmm15
vpslldq $8, %xmm6, %xmm5
vpxor %xmm2, %xmm4, %xmm4
pxor %xmm3, %xmm3
mov $13979173243358019584, %r11
pinsrq $1, %r11, %xmm3
vaesenc %xmm15, %xmm9, %xmm9
vpxor %xmm8, %xmm7, %xmm7
vaesenc %xmm15, %xmm10, %xmm10
vpxor %xmm5, %xmm4, %xmm4
movbeq 24(%r14), %r13
vaesenc %xmm15, %xmm11, %xmm11
movbeq 16(%r14), %r12
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
movq %r13, 96(%rbp)
vaesenc %xmm15, %xmm12, %xmm12
movq %r12, 104(%rbp)
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
movdqu 0(%rcx), %xmm1
vaesenc %xmm1, %xmm9, %xmm9
movdqu 16(%rcx), %xmm15
vaesenc %xmm1, %xmm10, %xmm10
vpsrldq $8, %xmm6, %xmm6
vaesenc %xmm1, %xmm11, %xmm11
vpxor %xmm6, %xmm7, %xmm7
vaesenc %xmm1, %xmm12, %xmm12
vpxor %xmm0, %xmm4, %xmm4
movbeq 8(%r14), %r13
vaesenc %xmm1, %xmm13, %xmm13
movbeq 0(%r14), %r12
vaesenc %xmm1, %xmm14, %xmm14
movdqu 32(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 48(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 64(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
vaesenc %xmm15, %xmm10, %xmm10
vaesenc %xmm15, %xmm11, %xmm11
vaesenc %xmm15, %xmm12, %xmm12
vaesenc %xmm15, %xmm13, %xmm13
vaesenc %xmm15, %xmm14, %xmm14
vaesenc %xmm1, %xmm9, %xmm9
vaesenc %xmm1, %xmm10, %xmm10
vaesenc %xmm1, %xmm11, %xmm11
vaesenc %xmm1, %xmm12, %xmm12
vaesenc %xmm1, %xmm13, %xmm13
movdqu 80(%rcx), %xmm15
vaesenc %xmm1, %xmm14, %xmm14
movdqu 96(%rcx), %xmm1
vaesenc %xmm15, %xmm9, %xmm9
movdqu %xmm7, 16(%rbp)
vpalignr $8, %xmm4, %xmm4, %xmm8
vaesenc %xmm15, %xmm10, %xmm10
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor 0(%rdi), %xmm1, %xmm2
vaesenc %xmm15, %xmm11, %xmm11
vpxor 16(%rdi), %xmm1, %xmm0
vaesenc %xmm15, %xmm12, %xmm12
vpxor 32(%rdi), %xmm1, %xmm5
vaesenc %xmm15, %xmm13, %xmm13
vpxor 48(%rdi), %xmm1, %xmm6
vaesenc %xmm15, %xmm14, %xmm14
vpxor 64(%rdi), %xmm1, %xmm7
vpxor 80(%rdi), %xmm1, %xmm3
movdqu 128(%rbp), %xmm1
vaesenclast %xmm2, %xmm9, %xmm9
pxor %xmm2, %xmm2
mov $72057594037927936, %r11
pinsrq $1, %r11, %xmm2
vaesenclast %xmm0, %xmm10, %xmm10
vpaddd %xmm2, %xmm1, %xmm0
movq %r13, 112(%rbp)
lea 96(%rdi), %rdi
vaesenclast %xmm5, %xmm11, %xmm11
vpaddd %xmm2, %xmm0, %xmm5
movq %r12, 120(%rbp)
lea 96(%rsi), %rsi
movdqu -128(%rcx), %xmm15
vaesenclast %xmm6, %xmm12, %xmm12
vpaddd %xmm2, %xmm5, %xmm6
vaesenclast %xmm7, %xmm13, %xmm13
vpaddd %xmm2, %xmm6, %xmm7
vaesenclast %xmm3, %xmm14, %xmm14
vpaddd %xmm2, %xmm7, %xmm3
sub $6, %rdx
cmp $6, %rdx
jbe L216
add $96, %r14
jmp L217
L216:
L217:
cmp $0, %rdx
jbe L218
movdqu %xmm9, -96(%rsi)
vpxor %xmm15, %xmm1, %xmm9
movdqu %xmm10, -80(%rsi)
movdqu %xmm0, %xmm10
movdqu %xmm11, -64(%rsi)
movdqu %xmm5, %xmm11
movdqu %xmm12, -48(%rsi)
movdqu %xmm6, %xmm12
movdqu %xmm13, -32(%rsi)
movdqu %xmm7, %xmm13
movdqu %xmm14, -16(%rsi)
movdqu %xmm3, %xmm14
movdqu 32(%rbp), %xmm7
jmp L219
L218:
vpxor 16(%rbp), %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
L219:
.balign 16
L213:
cmp $0, %rdx
ja L212
movdqu %xmm1, 32(%rbp)
movdqu %xmm9, -96(%rsi)
movdqu %xmm10, -80(%rsi)
movdqu %xmm11, -64(%rsi)
movdqu %xmm12, -48(%rsi)
movdqu %xmm13, -32(%rsi)
movdqu %xmm14, -16(%rsi)
sub $128, %rcx
L209:
movdqu 32(%rbp), %xmm11
mov %rcx, %r8
mov 104(%rsp), %rax
mov 112(%rsp), %rdi
mov 120(%rsp), %rdx
mov %rdx, %r14
mov $579005069656919567, %r12
pinsrq $0, %r12, %xmm9
mov $283686952306183, %r12
pinsrq $1, %r12, %xmm9
pshufb %xmm9, %xmm11
mov %rdi, %rbx
mov %rdx, %r12
mov %rax, %rdi
mov %rdi, %r11
jmp L221
.balign 16
L220:
add $80, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 80(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
add $96, %r11
sub $6, %rdx
.balign 16
L221:
cmp $6, %rdx
jae L220
cmp $0, %rdx
jbe L222
mov %rdx, %r10
sub $1, %r10
imul $16, %r10
add %r10, %r11
movdqu -32(%r9), %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
cmp $1, %rdx
jne L224
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
jmp L225
L224:
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
movdqu %xmm1, %xmm4
movdqu -16(%r9), %xmm1
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
movdqu %xmm1, %xmm5
cmp $2, %rdx
je L226
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 16(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $3, %rdx
je L228
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 32(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
cmp $4, %rdx
je L230
sub $16, %r11
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu 0(%r11), %xmm0
pshufb %xmm9, %xmm0
vpxor %xmm1, %xmm4, %xmm4
movdqu 64(%r9), %xmm1
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
movdqu %xmm1, %xmm5
jmp L231
L230:
L231:
jmp L229
L228:
L229:
jmp L227
L226:
L227:
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
vpxor %xmm1, %xmm4, %xmm4
vpxor %xmm2, %xmm6, %xmm6
vpxor %xmm3, %xmm6, %xmm6
vpxor %xmm5, %xmm7, %xmm7
L225:
pxor %xmm3, %xmm3
mov $3254779904, %r10
pinsrd $3, %r10d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
jmp L223
L222:
L223:
mov %rbx, %rdi
mov %r12, %rdx
pxor %xmm10, %xmm10
mov $1, %rbx
pinsrd $0, %ebx, %xmm10
mov %rax, %r11
mov %rdi, %r10
mov $0, %rbx
jmp L233
.balign 16
L232:
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
movdqu 0(%r11), %xmm2
pxor %xmm0, %xmm2
movdqu %xmm2, 0(%r10)
add $1, %rbx
add $16, %r11
add $16, %r10
paddd %xmm10, %xmm11
.balign 16
L233:
cmp %rdx, %rbx
jne L232
add 96(%rsp), %r14
imul $16, %r14
mov 136(%rsp), %r13
cmp %r14, %r13
jbe L234
mov 128(%rsp), %rax
mov %r13, %r10
and $15, %r10
movdqu 0(%rax), %xmm0
movdqu %xmm0, %xmm10
cmp $8, %r10
jae L236
mov $0, %rcx
pinsrq $1, %rcx, %xmm0
mov %r10, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $0, %xmm0, %rcx
and %r11, %rcx
pinsrq $0, %rcx, %xmm0
jmp L237
L236:
mov %r10, %rcx
sub $8, %rcx
shl $3, %rcx
mov $1, %r11
shl %cl, %r11
sub $1, %r11
pextrq $1, %xmm0, %rcx
and %r11, %rcx
pinsrq $1, %rcx, %xmm0
L237:
pshufb %xmm9, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu %xmm11, %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pxor %xmm0, %xmm10
movdqu %xmm10, 0(%rax)
jmp L235
L234:
L235:
mov %r15, %r11
pxor %xmm0, %xmm0
mov %r11, %rax
imul $8, %rax
pinsrq $1, %rax, %xmm0
mov %r13, %rax
imul $8, %rax
pinsrq $0, %rax, %xmm0
movdqu -32(%r9), %xmm5
vpxor %xmm0, %xmm8, %xmm0
vpclmulqdq $0, %xmm5, %xmm0, %xmm1
vpclmulqdq $16, %xmm5, %xmm0, %xmm2
vpclmulqdq $1, %xmm5, %xmm0, %xmm3
vpclmulqdq $17, %xmm5, %xmm0, %xmm5
movdqu %xmm1, %xmm4
vpxor %xmm3, %xmm2, %xmm6
movdqu %xmm5, %xmm7
pxor %xmm3, %xmm3
mov $3254779904, %r11
pinsrd $3, %r11d, %xmm3
vpslldq $8, %xmm6, %xmm5
vpxor %xmm5, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm0
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpsrldq $8, %xmm6, %xmm6
vpxor %xmm6, %xmm7, %xmm7
vpxor %xmm0, %xmm4, %xmm4
vpalignr $8, %xmm4, %xmm4, %xmm8
vpclmulqdq $16, %xmm3, %xmm4, %xmm4
vpxor %xmm7, %xmm8, %xmm8
vpxor %xmm4, %xmm8, %xmm8
movdqu 0(%rbp), %xmm0
pshufb %xmm9, %xmm0
movdqu 0(%r8), %xmm2
pxor %xmm2, %xmm0
movdqu 16(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 32(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 48(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 64(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 80(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 96(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 112(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 128(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 144(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 160(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 176(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 192(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 208(%r8), %xmm2
aesenc %xmm2, %xmm0
movdqu 224(%r8), %xmm2
aesenclast %xmm2, %xmm0
pxor %xmm2, %xmm2
pshufb %xmm9, %xmm8
pxor %xmm0, %xmm8
mov 152(%rsp), %r15
movdqu 0(%r15), %xmm0
pcmpeqd %xmm8, %xmm0
pextrq $0, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rax
adc $0, %rax
pextrq $1, %xmm0, %rdx
sub $18446744073709551615, %rdx
mov $0, %rdx
adc $0, %rdx
add %rdx, %rax
mov %rax, %rcx
pop %rbx
pop %rbp
pop %rdi
pop %rsi
pop %r12
pop %r13
pop %r14
pop %r15
mov %rcx, %rax
ret
.section .note.GNU-stack,"",%progbits
|
verdict-x509/verdict
| 2,381
|
deps/libcrux/sys/hacl/c/vale/src/cpuid-x86_64-linux.S
|
.text
.global check_aesni
check_aesni:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $33554432, %rax
shr $24, %rax
and $2, %rcx
and %rcx, %rax
mov %r9, %rbx
ret
.global check_sha
check_sha:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $536870912, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_adx_bmi2
check_adx_bmi2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
and $524288, %rax
shr $11, %rax
and $256, %rbx
and %rbx, %rax
mov %r9, %rbx
ret
.global check_avx
check_avx:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $268435456, %rax
shr $27, %rax
mov %r9, %rbx
ret
.global check_avx2
check_avx2:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
and $32, %rbx
mov %rbx, %rax
mov %r9, %rbx
ret
.global check_movbe
check_movbe:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $4194304, %rax
shr $21, %rax
mov %r9, %rbx
ret
.global check_sse
check_sse:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $524288, %rax
and $512, %rcx
and $67108864, %rdx
shr $10, %rax
shr $17, %rdx
and %rdx, %rax
and %rcx, %rax
mov %r9, %rbx
ret
.global check_rdrand
check_rdrand:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $1073741824, %rax
shr $29, %rax
mov %r9, %rbx
ret
.global check_avx512
check_avx512:
mov %rbx, %r9
mov $7, %rax
mov $0, %rcx
cpuid
mov %rbx, %rax
mov %rbx, %r10
mov %rbx, %r11
and $65536, %rbx
and $131072, %rax
and $1073741824, %r10
shr $1, %rax
shr $14, %r10
and %rbx, %rax
mov $2147483648, %rbx
and %rbx, %r11
shr $15, %r11
and %r10, %rax
and %r11, %rax
mov %r9, %rbx
ret
.global check_osxsave
check_osxsave:
mov %rbx, %r9
mov $0, %rcx
mov $1, %rax
cpuid
mov %rcx, %rax
and $134217728, %rax
shr $26, %rax
mov %r9, %rbx
ret
.global check_avx_xcr0
check_avx_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
and $4, %rax
shr $1, %rax
and $2, %rcx
and %rcx, %rax
ret
.global check_avx512_xcr0
check_avx512_xcr0:
mov $0, %rcx
xgetbv
mov %rax, %rcx
mov %rax, %rdx
and $32, %rax
and $64, %rcx
and $128, %rdx
shr $2, %rdx
shr $1, %rcx
and %rdx, %rax
and %rcx, %rax
ret
.section .note.GNU-stack,"",%progbits
|
verdict-x509/verdict
| 31,349
|
deps/libcrux/sys/libjade/jazz/sha3_512_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_512_amd64_ref
.globl jade_hash_sha3_512_amd64_ref
_jade_hash_sha3_512_amd64_ref:
jade_hash_sha3_512_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $64, %rcx
movb $6, %r8b
movq $72, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_512_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
verdict-x509/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_256_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_256_amd64_avx2
.globl jade_hash_sha3_256_amd64_avx2
_jade_hash_sha3_256_amd64_avx2:
jade_hash_sha3_256_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $32, %r9
movb $6, %al
movq $136, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_256_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_256_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
verdict-x509/verdict
| 36,058
|
deps/libcrux/sys/libjade/jazz/poly1305_avx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_avx_verify
.globl jade_onetimeauth_poly1305_amd64_avx_verify
.globl _jade_onetimeauth_poly1305_amd64_avx
.globl jade_onetimeauth_poly1305_amd64_avx
_jade_onetimeauth_poly1305_amd64_avx_verify:
jade_onetimeauth_poly1305_amd64_avx_verify:
movq %rsp, %rax
leaq -600(%rsp), %rsp
andq $-16, %rsp
movq %rax, 592(%rsp)
movq %rbx, 544(%rsp)
movq %rbp, 552(%rsp)
movq %r12, 560(%rsp)
movq %r13, 568(%rsp)
movq %r14, 576(%rsp)
movq %r15, 584(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $1024, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$1
movq $0, %r8
movq $0, %r12
movq $0, %r13
movq (%r15), %rbp
movq 8(%r15), %rbx
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %rbx
movq %rbx, %r9
shrq $2, %r9
addq %rbx, %r9
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$9
Ljade_onetimeauth_poly1305_amd64_avx_verify$10:
addq (%rsi), %r8
adcq 8(%rsi), %r12
adcq $1, %r13
movq %r9, %r10
imulq %r13, %r10
imulq %rbp, %r13
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r11
movq %rbp, %rax
mulq %r12
addq %rax, %r11
adcq %rdx, %r13
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %r10, %r12
movq %rax, %r10
movq %rbx, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r11
adcq %rdx, %r13
movq $-4, %r8
movq %r13, %rax
shrq $2, %rax
andq %r13, %r8
addq %rax, %r8
andq $3, %r13
addq %rcx, %r8
adcq %r11, %r12
adcq $0, %r13
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r8
adcq %rax, %r12
adcq $0, %r13
movq %r9, %rsi
imulq %r13, %rsi
imulq %rbp, %r13
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r13
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %rbx, %rax
mulq %r8
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r13
movq $-4, %r8
movq %r13, %rax
shrq $2, %rax
andq %r13, %r8
addq %rax, %r8
andq $3, %r13
addq %rcx, %r8
adcq %r10, %r12
adcq $0, %r13
Ljade_onetimeauth_poly1305_amd64_avx_verify$8:
movq %r8, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r13
shrq $2, %r13
negq %r13
xorq %r8, %rax
xorq %r12, %rcx
andq %r13, %rax
andq %r13, %rcx
xorq %r8, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$2
Ljade_onetimeauth_poly1305_amd64_avx_verify$1:
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r12
shrq $2, %r12
addq %r13, %r12
addq $16, %r15
movq %rbp, %r8
movq %r13, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 232(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 248(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 264(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 280(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 296(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 224(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 240(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 256(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 272(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 288(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 240(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 32(%rsp)
vpmuludq 256(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 48(%rsp)
vpmuludq 272(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 64(%rsp)
vpmuludq 288(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 80(%rsp)
vpbroadcastq 224(%rsp), %xmm0
vmovdqu %xmm0, 304(%rsp)
vpbroadcastq 240(%rsp), %xmm0
vmovdqu %xmm0, 320(%rsp)
vpbroadcastq 256(%rsp), %xmm0
vmovdqu %xmm0, 336(%rsp)
vpbroadcastq 272(%rsp), %xmm0
vmovdqu %xmm0, 352(%rsp)
vpbroadcastq 288(%rsp), %xmm0
vmovdqu %xmm0, 368(%rsp)
vpbroadcastq 32(%rsp), %xmm0
vmovdqu %xmm0, 96(%rsp)
vpbroadcastq 48(%rsp), %xmm0
vmovdqu %xmm0, 112(%rsp)
vpbroadcastq 64(%rsp), %xmm0
vmovdqu %xmm0, 128(%rsp)
vpbroadcastq 80(%rsp), %xmm0
vmovdqu %xmm0, 144(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r12, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r13, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 384(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 400(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 416(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
movq 384(%rsp), %rax
movq %rax, 392(%rsp)
movq 400(%rsp), %rax
movq %rax, 408(%rsp)
movq 416(%rsp), %rax
movq %rax, 424(%rsp)
movq 432(%rsp), %rax
movq %rax, 440(%rsp)
movq 448(%rsp), %rax
movq %rax, 456(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 400(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 160(%rsp)
vpmuludq 416(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 176(%rsp)
vpmuludq 432(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 192(%rsp)
vpmuludq 448(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 208(%rsp)
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm2, %xmm2, %xmm2
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpbroadcastq glob_data + 8(%rip), %xmm0
vmovdqu %xmm0, (%rsp)
vpbroadcastq glob_data + 0(%rip), %xmm0
vmovdqu %xmm0, 16(%rsp)
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$6
Ljade_onetimeauth_poly1305_amd64_avx_verify$7:
vmovdqu 384(%rsp), %xmm0
vmovdqu 400(%rsp), %xmm12
vmovdqu 208(%rsp), %xmm14
vpmuludq %xmm0, %xmm3, %xmm7
vpmuludq %xmm12, %xmm3, %xmm8
vpmuludq %xmm0, %xmm2, %xmm13
vpmuludq %xmm12, %xmm2, %xmm6
vpmuludq %xmm0, %xmm1, %xmm9
vpmuludq %xmm12, %xmm1, %xmm10
vpmuludq %xmm0, %xmm4, %xmm11
vpaddq %xmm8, %xmm13, %xmm8
vpmuludq %xmm12, %xmm4, %xmm12
vpaddq %xmm6, %xmm9, %xmm9
vpmuludq %xmm0, %xmm5, %xmm0
vpaddq %xmm10, %xmm11, %xmm10
vpaddq %xmm12, %xmm0, %xmm6
vpmuludq %xmm14, %xmm2, %xmm15
vmovdqu (%rsi), %xmm0
vpmuludq %xmm14, %xmm1, %xmm13
vmovdqu 416(%rsp), %xmm12
vpmuludq %xmm14, %xmm4, %xmm11
vpmuludq %xmm14, %xmm5, %xmm14
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 16(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm13
vpaddq %xmm14, %xmm10, %xmm9
vpmuludq %xmm12, %xmm3, %xmm14
vpunpcklqdq %xmm15, %xmm0, %xmm10
vpmuludq %xmm12, %xmm2, %xmm11
vpunpckhqdq %xmm15, %xmm0, %xmm0
vpmuludq %xmm12, %xmm1, %xmm12
vpaddq %xmm14, %xmm13, %xmm13
vmovdqu 192(%rsp), %xmm14
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm14, %xmm1, %xmm11
vpmuludq %xmm14, %xmm4, %xmm12
vmovdqu %xmm10, %xmm1
vpmuludq %xmm14, %xmm5, %xmm14
vpsrlq $26, %xmm1, %xmm1
vpand (%rsp), %xmm1, %xmm1
vmovdqu 432(%rsp), %xmm15
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm14, %xmm12
vpmuludq %xmm15, %xmm3, %xmm11
vmovdqu %xmm0, %xmm13
vmovdqu %xmm12, 496(%rsp)
vpmuludq %xmm15, %xmm2, %xmm12
vpsrlq $40, %xmm13, %xmm2
vpor 16(%rsp), %xmm2, %xmm2
vmovdqu 176(%rsp), %xmm13
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm13, %xmm4, %xmm11
vmovdqu %xmm10, %xmm4
vmovdqu %xmm9, 512(%rsp)
vpmuludq %xmm13, %xmm5, %xmm9
vpsrlq $52, %xmm4, %xmm4
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm8, %xmm9, %xmm8
vpmuludq 160(%rsp), %xmm5, %xmm5
vpsllq $12, %xmm0, %xmm9
vmovdqu %xmm8, 480(%rsp)
vpmuludq 448(%rsp), %xmm3, %xmm3
vpor %xmm9, %xmm4, %xmm4
vmovdqu (%rsp), %xmm8
vpaddq %xmm5, %xmm7, %xmm5
vpaddq %xmm3, %xmm6, %xmm3
vmovdqu %xmm5, 464(%rsp)
vmovdqu %xmm3, 528(%rsp)
vpand %xmm8, %xmm10, %xmm3
vpand %xmm8, %xmm4, %xmm4
vpsrlq $14, %xmm0, %xmm0
vpand %xmm8, %xmm0, %xmm0
vmovdqu 304(%rsp), %xmm5
vmovdqu 320(%rsp), %xmm9
vmovdqu 144(%rsp), %xmm12
vpmuludq %xmm5, %xmm3, %xmm7
vpmuludq %xmm9, %xmm3, %xmm8
vpmuludq %xmm5, %xmm1, %xmm14
vpmuludq %xmm9, %xmm1, %xmm11
vpmuludq %xmm5, %xmm4, %xmm13
vpmuludq %xmm9, %xmm4, %xmm6
vpaddq 464(%rsp), %xmm7, %xmm7
vpmuludq %xmm5, %xmm0, %xmm10
vpaddq 480(%rsp), %xmm14, %xmm14
vpaddq %xmm8, %xmm14, %xmm8
vpmuludq %xmm9, %xmm0, %xmm14
vpaddq 496(%rsp), %xmm13, %xmm9
vpaddq %xmm11, %xmm9, %xmm9
vpmuludq %xmm5, %xmm2, %xmm5
vpaddq 512(%rsp), %xmm10, %xmm10
vpaddq %xmm6, %xmm10, %xmm10
vpaddq 528(%rsp), %xmm5, %xmm5
vpaddq %xmm14, %xmm5, %xmm5
vpmuludq %xmm12, %xmm1, %xmm15
vmovdqu 32(%rsi), %xmm14
vpmuludq %xmm12, %xmm4, %xmm13
vmovdqu 336(%rsp), %xmm6
vpmuludq %xmm12, %xmm0, %xmm11
vpmuludq %xmm12, %xmm2, %xmm12
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 48(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm6, %xmm3, %xmm11
vpunpcklqdq %xmm15, %xmm14, %xmm12
vpmuludq %xmm6, %xmm1, %xmm13
vpunpckhqdq %xmm15, %xmm14, %xmm14
vpmuludq %xmm6, %xmm4, %xmm6
vpaddq %xmm11, %xmm9, %xmm9
vmovdqu 128(%rsp), %xmm11
vpaddq %xmm13, %xmm10, %xmm10
vpaddq %xmm6, %xmm5, %xmm5
vpmuludq %xmm11, %xmm4, %xmm4
vpmuludq %xmm11, %xmm0, %xmm6
vmovdqu %xmm12, %xmm13
vpmuludq %xmm11, %xmm2, %xmm11
vpsrlq $26, %xmm13, %xmm13
vpand (%rsp), %xmm13, %xmm13
vmovdqu 352(%rsp), %xmm15
vpaddq %xmm4, %xmm7, %xmm4
vpaddq %xmm6, %xmm8, %xmm6
vpaddq %xmm9, %xmm11, %xmm7
vpmuludq %xmm15, %xmm3, %xmm8
vmovdqu %xmm14, %xmm9
vpmuludq %xmm15, %xmm1, %xmm11
vpsrlq $40, %xmm9, %xmm1
vpor 16(%rsp), %xmm1, %xmm1
vmovdqu 112(%rsp), %xmm9
vpaddq %xmm8, %xmm10, %xmm8
vpaddq %xmm11, %xmm5, %xmm5
vpmuludq %xmm9, %xmm0, %xmm0
vmovdqu %xmm12, %xmm10
vpmuludq %xmm9, %xmm2, %xmm11
vpsrlq $52, %xmm10, %xmm9
vpaddq %xmm0, %xmm4, %xmm10
vpaddq %xmm6, %xmm11, %xmm0
vpmuludq 96(%rsp), %xmm2, %xmm6
vpsllq $12, %xmm14, %xmm4
vpmuludq 368(%rsp), %xmm3, %xmm2
vpor %xmm4, %xmm9, %xmm3
vmovdqu (%rsp), %xmm4
vpaddq %xmm6, %xmm10, %xmm6
vpaddq %xmm2, %xmm5, %xmm2
vpand %xmm4, %xmm12, %xmm5
vpaddq %xmm6, %xmm5, %xmm5
vpand %xmm4, %xmm3, %xmm3
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $14, %xmm14, %xmm6
vpand %xmm4, %xmm6, %xmm6
vpaddq %xmm8, %xmm6, %xmm6
addq $64, %rsi
vpaddq %xmm0, %xmm13, %xmm7
vpaddq %xmm2, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm8
vpsrlq $26, %xmm6, %xmm9
vpand %xmm4, %xmm5, %xmm0
vpand %xmm4, %xmm6, %xmm2
vpaddq %xmm8, %xmm7, %xmm5
vpaddq %xmm9, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm6
vpsrlq $26, %xmm1, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm4, %xmm5, %xmm8
vpand %xmm4, %xmm1, %xmm5
vpaddq %xmm6, %xmm3, %xmm1
vpaddq %xmm7, %xmm0, %xmm0
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm0, %xmm7
vpand %xmm4, %xmm1, %xmm1
vpand %xmm4, %xmm0, %xmm3
vpaddq %xmm6, %xmm2, %xmm0
vpaddq %xmm7, %xmm8, %xmm2
vpsrlq $26, %xmm0, %xmm6
vpand %xmm4, %xmm0, %xmm4
vpaddq %xmm6, %xmm5, %xmm5
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$6:
cmpq $64, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$7
vmovdqu 224(%rsp), %xmm6
vmovdqu 240(%rsp), %xmm11
vmovdqu 80(%rsp), %xmm14
vpmuludq %xmm6, %xmm3, %xmm0
vpmuludq %xmm6, %xmm2, %xmm7
vpmuludq %xmm6, %xmm1, %xmm8
vpmuludq %xmm6, %xmm4, %xmm9
vpmuludq %xmm6, %xmm5, %xmm10
vpmuludq %xmm11, %xmm3, %xmm15
vpmuludq %xmm11, %xmm2, %xmm12
vpmuludq %xmm11, %xmm1, %xmm13
vpmuludq %xmm11, %xmm4, %xmm11
vmovdqu 256(%rsp), %xmm6
vpaddq %xmm15, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm9, %xmm9
vpaddq %xmm11, %xmm10, %xmm10
vpmuludq %xmm14, %xmm2, %xmm11
vpmuludq %xmm14, %xmm1, %xmm12
vpmuludq %xmm14, %xmm4, %xmm13
vpmuludq %xmm14, %xmm5, %xmm14
vmovdqu 64(%rsp), %xmm15
vpaddq %xmm11, %xmm0, %xmm0
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm14, %xmm9, %xmm9
vpmuludq %xmm6, %xmm3, %xmm13
vpmuludq %xmm6, %xmm2, %xmm11
vpmuludq %xmm6, %xmm1, %xmm12
vmovdqu 272(%rsp), %xmm6
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm15, %xmm1, %xmm11
vpmuludq %xmm15, %xmm4, %xmm12
vpmuludq %xmm15, %xmm5, %xmm13
vmovdqu 48(%rsp), %xmm1
vpaddq %xmm11, %xmm0, %xmm11
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm8, %xmm13, %xmm0
vpmuludq %xmm6, %xmm3, %xmm8
vpmuludq %xmm6, %xmm2, %xmm6
vpaddq %xmm8, %xmm9, %xmm2
vpaddq %xmm6, %xmm10, %xmm6
vpmuludq %xmm1, %xmm4, %xmm4
vpmuludq %xmm1, %xmm5, %xmm1
vpaddq %xmm4, %xmm11, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpmuludq 32(%rsp), %xmm5, %xmm5
vpmuludq 288(%rsp), %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vmovdqu %xmm2, %xmm5
vpaddq %xmm3, %xmm6, %xmm6
vmovdqu (%rsp), %xmm2
vpsrlq $26, %xmm4, %xmm7
vpsrlq $26, %xmm5, %xmm8
vpand %xmm2, %xmm4, %xmm3
vpand %xmm2, %xmm5, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpaddq %xmm8, %xmm6, %xmm5
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm5, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm2, %xmm1, %xmm8
vpand %xmm2, %xmm5, %xmm1
vpaddq %xmm6, %xmm0, %xmm0
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $26, %xmm0, %xmm5
vpsrlq $26, %xmm3, %xmm6
vpand %xmm2, %xmm0, %xmm0
vpand %xmm2, %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vpaddq %xmm6, %xmm8, %xmm5
vpsrlq $26, %xmm4, %xmm6
vpand %xmm2, %xmm4, %xmm2
vpaddq %xmm6, %xmm1, %xmm1
vpsllq $26, %xmm5, %xmm4
vpaddq %xmm3, %xmm4, %xmm3
vpsllq $26, %xmm2, %xmm2
vpaddq %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm1, %xmm2
vpaddq %xmm1, %xmm2, %xmm1
vpunpcklqdq %xmm0, %xmm3, %xmm2
vpunpckhqdq %xmm0, %xmm3, %xmm0
vpaddq %xmm0, %xmm2, %xmm0
vpextrq $0, %xmm0, %rax
vpextrq $1, %xmm0, %r8
vpextrq $0, %xmm1, %rcx
movq %r8, %r9
shlq $52, %r9
shrq $12, %r8
movq %rcx, %rbx
shrq $24, %rbx
shlq $40, %rcx
addq %rax, %r9
adcq %rcx, %r8
adcq $0, %rbx
movq %rbx, %rax
movq %rbx, %rcx
andq $3, %rbx
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r9
adcq $0, %r8
adcq $0, %rbx
jmp Ljade_onetimeauth_poly1305_amd64_avx_verify$4
Ljade_onetimeauth_poly1305_amd64_avx_verify$5:
addq (%rsi), %r9
adcq 8(%rsi), %r8
adcq $1, %rbx
movq %r12, %rcx
imulq %rbx, %rcx
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r9
movq %rax, %r11
movq %rdx, %r10
movq %rbp, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r8
movq %rdx, %r8
addq %rcx, %r8
movq %rax, %rcx
movq %r13, %rax
mulq %r9
addq %rcx, %r11
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %r11, %r9
adcq %r10, %r8
adcq $0, %rbx
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx_verify$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx_verify$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx_verify$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r9
adcq %rax, %r8
adcq $0, %rbx
movq %r12, %rsi
imulq %rbx, %rsi
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r13, %rax
mulq %r9
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
Ljade_onetimeauth_poly1305_amd64_avx_verify$3:
movq %r9, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbx
shrq $2, %rbx
negq %rbx
xorq %r9, %rax
xorq %r8, %rcx
andq %rbx, %rax
andq %rbx, %rcx
xorq %r9, %rax
xorq %r8, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx_verify$2:
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq 544(%rsp), %rbx
movq 552(%rsp), %rbp
movq 560(%rsp), %r12
movq 568(%rsp), %r13
movq 576(%rsp), %r14
movq 584(%rsp), %r15
movq 592(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_avx:
jade_onetimeauth_poly1305_amd64_avx:
movq %rsp, %rax
leaq -600(%rsp), %rsp
andq $-16, %rsp
movq %rax, 592(%rsp)
movq %rbx, 544(%rsp)
movq %rbp, 552(%rsp)
movq %r12, 560(%rsp)
movq %r13, 568(%rsp)
movq %r14, 576(%rsp)
movq %r15, 584(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $1024, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$1
movq $0, %rbx
movq $0, %r9
movq $0, %rbp
movq (%r15), %r13
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %r13
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %r8
shrq $2, %r8
addq %r12, %r8
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx$9
Ljade_onetimeauth_poly1305_amd64_avx$10:
addq (%rsi), %rbx
adcq 8(%rsi), %r9
adcq $1, %rbp
movq %r8, %r11
imulq %rbp, %r11
imulq %r13, %rbp
movq %r13, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %rbp
movq %r8, %rax
mulq %r9
movq %rdx, %r9
addq %r11, %r9
movq %rax, %r11
movq %r12, %rax
mulq %rbx
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %rbp
movq $-4, %rbx
movq %rbp, %rax
shrq $2, %rax
andq %rbp, %rbx
addq %rax, %rbx
andq $3, %rbp
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %rbp
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r9
adcq $0, %rbp
movq %r8, %rsi
imulq %rbp, %rsi
imulq %r13, %rbp
movq %r13, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %rbp
movq %r8, %rax
mulq %r9
movq %rdx, %r9
addq %rsi, %r9
movq %rax, %rsi
movq %r12, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbp
movq $-4, %rbx
movq %rbp, %rax
shrq $2, %rax
andq %rbp, %rbx
addq %rax, %rbx
andq $3, %rbp
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %rbp
Ljade_onetimeauth_poly1305_amd64_avx$8:
movq %rbx, %rax
movq %r9, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbp
shrq $2, %rbp
negq %rbp
xorq %rbx, %rax
xorq %r9, %rcx
andq %rbp, %rax
andq %rbp, %rcx
xorq %rbx, %rax
xorq %r9, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx$2
Ljade_onetimeauth_poly1305_amd64_avx$1:
movq (%r15), %rbp
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %r13
shrq $2, %r13
addq %r12, %r13
addq $16, %r15
movq %rbp, %r8
movq %r12, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 232(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 248(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 264(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 280(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 296(%rsp)
movq %r13, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 224(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 240(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 256(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 272(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 288(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 240(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 32(%rsp)
vpmuludq 256(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 48(%rsp)
vpmuludq 272(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 64(%rsp)
vpmuludq 288(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 80(%rsp)
vpbroadcastq 224(%rsp), %xmm0
vmovdqu %xmm0, 304(%rsp)
vpbroadcastq 240(%rsp), %xmm0
vmovdqu %xmm0, 320(%rsp)
vpbroadcastq 256(%rsp), %xmm0
vmovdqu %xmm0, 336(%rsp)
vpbroadcastq 272(%rsp), %xmm0
vmovdqu %xmm0, 352(%rsp)
vpbroadcastq 288(%rsp), %xmm0
vmovdqu %xmm0, 368(%rsp)
vpbroadcastq 32(%rsp), %xmm0
vmovdqu %xmm0, 96(%rsp)
vpbroadcastq 48(%rsp), %xmm0
vmovdqu %xmm0, 112(%rsp)
vpbroadcastq 64(%rsp), %xmm0
vmovdqu %xmm0, 128(%rsp)
vpbroadcastq 80(%rsp), %xmm0
vmovdqu %xmm0, 144(%rsp)
movq %r13, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r13, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r13, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r12, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 384(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 400(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 416(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
movq 384(%rsp), %rax
movq %rax, 392(%rsp)
movq 400(%rsp), %rax
movq %rax, 408(%rsp)
movq 416(%rsp), %rax
movq %rax, 424(%rsp)
movq 432(%rsp), %rax
movq %rax, 440(%rsp)
movq 448(%rsp), %rax
movq %rax, 456(%rsp)
vpbroadcastq glob_data + 16(%rip), %xmm0
vpmuludq 400(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 160(%rsp)
vpmuludq 416(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 176(%rsp)
vpmuludq 432(%rsp), %xmm0, %xmm1
vmovdqu %xmm1, 192(%rsp)
vpmuludq 448(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 208(%rsp)
vpxor %xmm3, %xmm3, %xmm3
vpxor %xmm2, %xmm2, %xmm2
vpxor %xmm1, %xmm1, %xmm1
vpxor %xmm4, %xmm4, %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpbroadcastq glob_data + 8(%rip), %xmm0
vmovdqu %xmm0, (%rsp)
vpbroadcastq glob_data + 0(%rip), %xmm0
vmovdqu %xmm0, 16(%rsp)
jmp Ljade_onetimeauth_poly1305_amd64_avx$6
Ljade_onetimeauth_poly1305_amd64_avx$7:
vmovdqu 384(%rsp), %xmm0
vmovdqu 400(%rsp), %xmm12
vmovdqu 208(%rsp), %xmm14
vpmuludq %xmm0, %xmm3, %xmm7
vpmuludq %xmm12, %xmm3, %xmm8
vpmuludq %xmm0, %xmm2, %xmm13
vpmuludq %xmm12, %xmm2, %xmm6
vpmuludq %xmm0, %xmm1, %xmm9
vpmuludq %xmm12, %xmm1, %xmm10
vpmuludq %xmm0, %xmm4, %xmm11
vpaddq %xmm8, %xmm13, %xmm8
vpmuludq %xmm12, %xmm4, %xmm12
vpaddq %xmm6, %xmm9, %xmm9
vpmuludq %xmm0, %xmm5, %xmm0
vpaddq %xmm10, %xmm11, %xmm10
vpaddq %xmm12, %xmm0, %xmm6
vpmuludq %xmm14, %xmm2, %xmm15
vmovdqu (%rsi), %xmm0
vpmuludq %xmm14, %xmm1, %xmm13
vmovdqu 416(%rsp), %xmm12
vpmuludq %xmm14, %xmm4, %xmm11
vpmuludq %xmm14, %xmm5, %xmm14
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 16(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm13
vpaddq %xmm14, %xmm10, %xmm9
vpmuludq %xmm12, %xmm3, %xmm14
vpunpcklqdq %xmm15, %xmm0, %xmm10
vpmuludq %xmm12, %xmm2, %xmm11
vpunpckhqdq %xmm15, %xmm0, %xmm0
vpmuludq %xmm12, %xmm1, %xmm12
vpaddq %xmm14, %xmm13, %xmm13
vmovdqu 192(%rsp), %xmm14
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm14, %xmm1, %xmm11
vpmuludq %xmm14, %xmm4, %xmm12
vmovdqu %xmm10, %xmm1
vpmuludq %xmm14, %xmm5, %xmm14
vpsrlq $26, %xmm1, %xmm1
vpand (%rsp), %xmm1, %xmm1
vmovdqu 432(%rsp), %xmm15
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm14, %xmm12
vpmuludq %xmm15, %xmm3, %xmm11
vmovdqu %xmm0, %xmm13
vmovdqu %xmm12, 496(%rsp)
vpmuludq %xmm15, %xmm2, %xmm12
vpsrlq $40, %xmm13, %xmm2
vpor 16(%rsp), %xmm2, %xmm2
vmovdqu 176(%rsp), %xmm13
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm6, %xmm6
vpmuludq %xmm13, %xmm4, %xmm11
vmovdqu %xmm10, %xmm4
vmovdqu %xmm9, 512(%rsp)
vpmuludq %xmm13, %xmm5, %xmm9
vpsrlq $52, %xmm4, %xmm4
vpaddq %xmm11, %xmm7, %xmm7
vpaddq %xmm8, %xmm9, %xmm8
vpmuludq 160(%rsp), %xmm5, %xmm5
vpsllq $12, %xmm0, %xmm9
vmovdqu %xmm8, 480(%rsp)
vpmuludq 448(%rsp), %xmm3, %xmm3
vpor %xmm9, %xmm4, %xmm4
vmovdqu (%rsp), %xmm8
vpaddq %xmm5, %xmm7, %xmm5
vpaddq %xmm3, %xmm6, %xmm3
vmovdqu %xmm5, 464(%rsp)
vmovdqu %xmm3, 528(%rsp)
vpand %xmm8, %xmm10, %xmm3
vpand %xmm8, %xmm4, %xmm4
vpsrlq $14, %xmm0, %xmm0
vpand %xmm8, %xmm0, %xmm0
vmovdqu 304(%rsp), %xmm5
vmovdqu 320(%rsp), %xmm9
vmovdqu 144(%rsp), %xmm12
vpmuludq %xmm5, %xmm3, %xmm7
vpmuludq %xmm9, %xmm3, %xmm8
vpmuludq %xmm5, %xmm1, %xmm14
vpmuludq %xmm9, %xmm1, %xmm11
vpmuludq %xmm5, %xmm4, %xmm13
vpmuludq %xmm9, %xmm4, %xmm6
vpaddq 464(%rsp), %xmm7, %xmm7
vpmuludq %xmm5, %xmm0, %xmm10
vpaddq 480(%rsp), %xmm14, %xmm14
vpaddq %xmm8, %xmm14, %xmm8
vpmuludq %xmm9, %xmm0, %xmm14
vpaddq 496(%rsp), %xmm13, %xmm9
vpaddq %xmm11, %xmm9, %xmm9
vpmuludq %xmm5, %xmm2, %xmm5
vpaddq 512(%rsp), %xmm10, %xmm10
vpaddq %xmm6, %xmm10, %xmm10
vpaddq 528(%rsp), %xmm5, %xmm5
vpaddq %xmm14, %xmm5, %xmm5
vpmuludq %xmm12, %xmm1, %xmm15
vmovdqu 32(%rsi), %xmm14
vpmuludq %xmm12, %xmm4, %xmm13
vmovdqu 336(%rsp), %xmm6
vpmuludq %xmm12, %xmm0, %xmm11
vpmuludq %xmm12, %xmm2, %xmm12
vpaddq %xmm15, %xmm7, %xmm7
vmovdqu 48(%rsi), %xmm15
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm6, %xmm3, %xmm11
vpunpcklqdq %xmm15, %xmm14, %xmm12
vpmuludq %xmm6, %xmm1, %xmm13
vpunpckhqdq %xmm15, %xmm14, %xmm14
vpmuludq %xmm6, %xmm4, %xmm6
vpaddq %xmm11, %xmm9, %xmm9
vmovdqu 128(%rsp), %xmm11
vpaddq %xmm13, %xmm10, %xmm10
vpaddq %xmm6, %xmm5, %xmm5
vpmuludq %xmm11, %xmm4, %xmm4
vpmuludq %xmm11, %xmm0, %xmm6
vmovdqu %xmm12, %xmm13
vpmuludq %xmm11, %xmm2, %xmm11
vpsrlq $26, %xmm13, %xmm13
vpand (%rsp), %xmm13, %xmm13
vmovdqu 352(%rsp), %xmm15
vpaddq %xmm4, %xmm7, %xmm4
vpaddq %xmm6, %xmm8, %xmm6
vpaddq %xmm9, %xmm11, %xmm7
vpmuludq %xmm15, %xmm3, %xmm8
vmovdqu %xmm14, %xmm9
vpmuludq %xmm15, %xmm1, %xmm11
vpsrlq $40, %xmm9, %xmm1
vpor 16(%rsp), %xmm1, %xmm1
vmovdqu 112(%rsp), %xmm9
vpaddq %xmm8, %xmm10, %xmm8
vpaddq %xmm11, %xmm5, %xmm5
vpmuludq %xmm9, %xmm0, %xmm0
vmovdqu %xmm12, %xmm10
vpmuludq %xmm9, %xmm2, %xmm11
vpsrlq $52, %xmm10, %xmm9
vpaddq %xmm0, %xmm4, %xmm10
vpaddq %xmm6, %xmm11, %xmm0
vpmuludq 96(%rsp), %xmm2, %xmm6
vpsllq $12, %xmm14, %xmm4
vpmuludq 368(%rsp), %xmm3, %xmm2
vpor %xmm4, %xmm9, %xmm3
vmovdqu (%rsp), %xmm4
vpaddq %xmm6, %xmm10, %xmm6
vpaddq %xmm2, %xmm5, %xmm2
vpand %xmm4, %xmm12, %xmm5
vpaddq %xmm6, %xmm5, %xmm5
vpand %xmm4, %xmm3, %xmm3
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $14, %xmm14, %xmm6
vpand %xmm4, %xmm6, %xmm6
vpaddq %xmm8, %xmm6, %xmm6
addq $64, %rsi
vpaddq %xmm0, %xmm13, %xmm7
vpaddq %xmm2, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm8
vpsrlq $26, %xmm6, %xmm9
vpand %xmm4, %xmm5, %xmm0
vpand %xmm4, %xmm6, %xmm2
vpaddq %xmm8, %xmm7, %xmm5
vpaddq %xmm9, %xmm1, %xmm1
vpsrlq $26, %xmm5, %xmm6
vpsrlq $26, %xmm1, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm4, %xmm5, %xmm8
vpand %xmm4, %xmm1, %xmm5
vpaddq %xmm6, %xmm3, %xmm1
vpaddq %xmm7, %xmm0, %xmm0
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm0, %xmm7
vpand %xmm4, %xmm1, %xmm1
vpand %xmm4, %xmm0, %xmm3
vpaddq %xmm6, %xmm2, %xmm0
vpaddq %xmm7, %xmm8, %xmm2
vpsrlq $26, %xmm0, %xmm6
vpand %xmm4, %xmm0, %xmm4
vpaddq %xmm6, %xmm5, %xmm5
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx$6:
cmpq $64, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$7
vmovdqu 224(%rsp), %xmm6
vmovdqu 240(%rsp), %xmm11
vmovdqu 80(%rsp), %xmm14
vpmuludq %xmm6, %xmm3, %xmm0
vpmuludq %xmm6, %xmm2, %xmm7
vpmuludq %xmm6, %xmm1, %xmm8
vpmuludq %xmm6, %xmm4, %xmm9
vpmuludq %xmm6, %xmm5, %xmm10
vpmuludq %xmm11, %xmm3, %xmm15
vpmuludq %xmm11, %xmm2, %xmm12
vpmuludq %xmm11, %xmm1, %xmm13
vpmuludq %xmm11, %xmm4, %xmm11
vmovdqu 256(%rsp), %xmm6
vpaddq %xmm15, %xmm7, %xmm7
vpaddq %xmm12, %xmm8, %xmm8
vpaddq %xmm13, %xmm9, %xmm9
vpaddq %xmm11, %xmm10, %xmm10
vpmuludq %xmm14, %xmm2, %xmm11
vpmuludq %xmm14, %xmm1, %xmm12
vpmuludq %xmm14, %xmm4, %xmm13
vpmuludq %xmm14, %xmm5, %xmm14
vmovdqu 64(%rsp), %xmm15
vpaddq %xmm11, %xmm0, %xmm0
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm14, %xmm9, %xmm9
vpmuludq %xmm6, %xmm3, %xmm13
vpmuludq %xmm6, %xmm2, %xmm11
vpmuludq %xmm6, %xmm1, %xmm12
vmovdqu 272(%rsp), %xmm6
vpaddq %xmm13, %xmm8, %xmm8
vpaddq %xmm11, %xmm9, %xmm9
vpaddq %xmm12, %xmm10, %xmm10
vpmuludq %xmm15, %xmm1, %xmm11
vpmuludq %xmm15, %xmm4, %xmm12
vpmuludq %xmm15, %xmm5, %xmm13
vmovdqu 48(%rsp), %xmm1
vpaddq %xmm11, %xmm0, %xmm11
vpaddq %xmm12, %xmm7, %xmm7
vpaddq %xmm8, %xmm13, %xmm0
vpmuludq %xmm6, %xmm3, %xmm8
vpmuludq %xmm6, %xmm2, %xmm6
vpaddq %xmm8, %xmm9, %xmm2
vpaddq %xmm6, %xmm10, %xmm6
vpmuludq %xmm1, %xmm4, %xmm4
vpmuludq %xmm1, %xmm5, %xmm1
vpaddq %xmm4, %xmm11, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpmuludq 32(%rsp), %xmm5, %xmm5
vpmuludq 288(%rsp), %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vmovdqu %xmm2, %xmm5
vpaddq %xmm3, %xmm6, %xmm6
vmovdqu (%rsp), %xmm2
vpsrlq $26, %xmm4, %xmm7
vpsrlq $26, %xmm5, %xmm8
vpand %xmm2, %xmm4, %xmm3
vpand %xmm2, %xmm5, %xmm4
vpaddq %xmm7, %xmm1, %xmm1
vpaddq %xmm8, %xmm6, %xmm5
vpsrlq $26, %xmm1, %xmm6
vpsrlq $26, %xmm5, %xmm7
vpsllq $2, %xmm7, %xmm8
vpaddq %xmm8, %xmm7, %xmm7
vpand %xmm2, %xmm1, %xmm8
vpand %xmm2, %xmm5, %xmm1
vpaddq %xmm6, %xmm0, %xmm0
vpaddq %xmm7, %xmm3, %xmm3
vpsrlq $26, %xmm0, %xmm5
vpsrlq $26, %xmm3, %xmm6
vpand %xmm2, %xmm0, %xmm0
vpand %xmm2, %xmm3, %xmm3
vpaddq %xmm5, %xmm4, %xmm4
vpaddq %xmm6, %xmm8, %xmm5
vpsrlq $26, %xmm4, %xmm6
vpand %xmm2, %xmm4, %xmm2
vpaddq %xmm6, %xmm1, %xmm1
vpsllq $26, %xmm5, %xmm4
vpaddq %xmm3, %xmm4, %xmm3
vpsllq $26, %xmm2, %xmm2
vpaddq %xmm0, %xmm2, %xmm0
vpsrldq $8, %xmm1, %xmm2
vpaddq %xmm1, %xmm2, %xmm1
vpunpcklqdq %xmm0, %xmm3, %xmm2
vpunpckhqdq %xmm0, %xmm3, %xmm0
vpaddq %xmm0, %xmm2, %xmm0
vpextrq $0, %xmm0, %rax
vpextrq $1, %xmm0, %rbx
vpextrq $0, %xmm1, %rcx
movq %rbx, %r11
shlq $52, %r11
shrq $12, %rbx
movq %rcx, %r8
shrq $24, %r8
shlq $40, %rcx
addq %rax, %r11
adcq %rcx, %rbx
adcq $0, %r8
movq %r8, %rax
movq %r8, %rcx
andq $3, %r8
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r11
adcq $0, %rbx
adcq $0, %r8
jmp Ljade_onetimeauth_poly1305_amd64_avx$4
Ljade_onetimeauth_poly1305_amd64_avx$5:
addq (%rsi), %r11
adcq 8(%rsi), %rbx
adcq $1, %r8
movq %r13, %r9
imulq %r8, %r9
imulq %rbp, %r8
movq %rbp, %rax
mulq %r11
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %rbx
addq %rax, %r10
adcq %rdx, %r8
movq %r13, %rax
mulq %rbx
movq %rdx, %rbx
addq %r9, %rbx
movq %rax, %r9
movq %r12, %rax
mulq %r11
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %r11
movq %r8, %rax
shrq $2, %rax
andq %r8, %r11
addq %rax, %r11
andq $3, %r8
addq %rcx, %r11
adcq %r10, %rbx
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r9
addq $-1, %r9
movq %rax, %r10
andq %r9, %r10
xorq %r10, %rcx
xorq %r10, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r9
andq %rax, %r9
orq %rdx, %r9
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r9, %r11
adcq %rax, %rbx
adcq $0, %r8
movq %r13, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %r11
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %rbx
addq %rax, %r9
adcq %rdx, %r8
movq %r13, %rax
mulq %rbx
movq %rdx, %rbx
addq %rsi, %rbx
movq %rax, %rsi
movq %r12, %rax
mulq %r11
addq %rsi, %rcx
adcq %rax, %r9
adcq %rdx, %r8
movq $-4, %r11
movq %r8, %rax
shrq $2, %rax
andq %r8, %r11
addq %rax, %r11
andq $3, %r8
addq %rcx, %r11
adcq %r9, %rbx
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx$3:
movq %r11, %rax
movq %rbx, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %r11, %rax
xorq %rbx, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %r11, %rax
xorq %rbx, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx$2:
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq 544(%rsp), %rbx
movq 552(%rsp), %rbp
movq 560(%rsp), %r12
movq 568(%rsp), %r13
movq 576(%rsp), %r14
movq 584(%rsp), %r15
movq 592(%rsp), %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
verdict-x509/verdict
| 678,286
|
deps/libcrux/sys/libjade/jazz/kyber_kyber768_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_kem_kyber_kyber768_amd64_avx2_dec
.globl jade_kem_kyber_kyber768_amd64_avx2_dec
.globl _jade_kem_kyber_kyber768_amd64_avx2_enc
.globl jade_kem_kyber_kyber768_amd64_avx2_enc
.globl _jade_kem_kyber_kyber768_amd64_avx2_enc_derand
.globl jade_kem_kyber_kyber768_amd64_avx2_enc_derand
.globl _jade_kem_kyber_kyber768_amd64_avx2_keypair
.globl jade_kem_kyber_kyber768_amd64_avx2_keypair
.globl _jade_kem_kyber_kyber768_amd64_avx2_keypair_derand
.globl jade_kem_kyber_kyber768_amd64_avx2_keypair_derand
_jade_kem_kyber_kyber768_amd64_avx2_dec:
jade_kem_kyber_kyber768_amd64_avx2_dec:
movq %rsp, %rax
leaq -17200(%rsp), %rsp
andq $-32, %rsp
movq %rax, 17192(%rsp)
movq %rbx, 17160(%rsp)
movq %rbp, 17168(%rsp)
movq %r12, 17176(%rsp)
movq %r13, 17184(%rsp)
movq %rdi, 17120(%rsp)
movq %rsi, 17128(%rsp)
leaq 32(%rsp), %rax
vpbroadcastd glob_data + 6404(%rip), %ymm0
vmovdqu glob_data + 64(%rip), %ymm1
vpbroadcastq glob_data + 6192(%rip), %ymm2
vpbroadcastd glob_data + 6400(%rip), %ymm3
vmovdqu (%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6368(%rsp)
vmovdqu 20(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6400(%rsp)
vmovdqu 40(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6432(%rsp)
vmovdqu 60(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6464(%rsp)
vmovdqu 80(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6496(%rsp)
vmovdqu 100(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6528(%rsp)
vmovdqu 120(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6560(%rsp)
vmovdqu 140(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6592(%rsp)
vmovdqu 160(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6624(%rsp)
vmovdqu 180(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6656(%rsp)
vmovdqu 200(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6688(%rsp)
vmovdqu 220(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6720(%rsp)
vmovdqu 240(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6752(%rsp)
vmovdqu 260(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6784(%rsp)
vmovdqu 280(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6816(%rsp)
vmovdqu 300(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6848(%rsp)
vmovdqu 320(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6880(%rsp)
vmovdqu 340(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6912(%rsp)
vmovdqu 360(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6944(%rsp)
vmovdqu 380(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 6976(%rsp)
vmovdqu 400(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7008(%rsp)
vmovdqu 420(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7040(%rsp)
vmovdqu 440(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7072(%rsp)
vmovdqu 460(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7104(%rsp)
vmovdqu 480(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7136(%rsp)
vmovdqu 500(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7168(%rsp)
vmovdqu 520(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7200(%rsp)
vmovdqu 540(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7232(%rsp)
vmovdqu 560(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7264(%rsp)
vmovdqu 580(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7296(%rsp)
vmovdqu 600(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7328(%rsp)
vmovdqu 620(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7360(%rsp)
vmovdqu 640(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7392(%rsp)
vmovdqu 660(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7424(%rsp)
vmovdqu 680(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7456(%rsp)
vmovdqu 700(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7488(%rsp)
vmovdqu 720(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7520(%rsp)
vmovdqu 740(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7552(%rsp)
vmovdqu 760(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7584(%rsp)
vmovdqu 780(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7616(%rsp)
vmovdqu 800(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7648(%rsp)
vmovdqu 820(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7680(%rsp)
vmovdqu 840(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7712(%rsp)
vmovdqu 860(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7744(%rsp)
vmovdqu 880(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7776(%rsp)
vmovdqu 900(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7808(%rsp)
vmovdqu 920(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpsllvd %ymm2, %ymm4, %ymm4
vpsrlw $1, %ymm4, %ymm4
vpand %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 7840(%rsp)
vmovdqu 940(%rsi), %ymm4
vpermq $-108, %ymm4, %ymm4
vpshufb %ymm1, %ymm4, %ymm1
vpsllvd %ymm2, %ymm1, %ymm1
vpsrlw $1, %ymm1, %ymm1
vpand %ymm3, %ymm1, %ymm1
vpmulhrsw %ymm0, %ymm1, %ymm0
vmovdqu %ymm0, 7872(%rsp)
addq $960, %rsi
leaq 2432(%rsp), %rcx
leaq -16(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$145(%rip), %r8
jmp L_poly_decompress$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$145:
leaq 16(%rsp), %rsp
movq %rdx, %rdi
leaq 7904(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$144(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$144:
addq $384, %rdi
leaq 8416(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$143(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$143:
addq $384, %rdi
leaq 8928(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$142(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$142:
leaq 6368(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$141(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$141:
leaq 6880(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$140(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$140:
leaq 7392(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$139(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$139:
leaq 2944(%rsp), %rcx
leaq 7904(%rsp), %rsi
leaq 6368(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$138(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$138:
leaq 3456(%rsp), %rcx
leaq 8416(%rsp), %rsi
leaq 6880(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$137(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$137:
leaq 2944(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$136(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$136:
leaq 3456(%rsp), %rcx
leaq 8928(%rsp), %rsi
leaq 7392(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$135(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$135:
leaq 2944(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$134(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$134:
leaq 2944(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$133(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$133:
leaq 3456(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq 2944(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$132(%rip), %r8
jmp L_poly_sub$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$132:
leaq 3456(%rsp), %rcx
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rcx)
vmovdqu 32(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rcx)
vmovdqu 64(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rcx)
vmovdqu 96(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rcx)
vmovdqu 128(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rcx)
vmovdqu 160(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rcx)
vmovdqu 192(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rcx)
vmovdqu 224(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rcx)
vmovdqu 256(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rcx)
vmovdqu 288(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rcx)
vmovdqu 320(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rcx)
vmovdqu 352(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rcx)
vmovdqu 384(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rcx)
vmovdqu 416(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rcx)
vmovdqu 448(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rcx)
vmovdqu 480(%rcx), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rcx)
leaq 3456(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$131(%rip), %rdi
jmp L_poly_tomsg_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$131:
leaq 32(%rdx), %rax
addq $2304, %rax
movq (%rax), %rcx
movq %rcx, 64(%rsp)
movq 8(%rax), %rcx
movq %rcx, 72(%rsp)
movq 16(%rax), %rcx
movq %rcx, 80(%rsp)
movq 24(%rax), %rax
movq %rax, 88(%rsp)
movq %rdx, 17136(%rsp)
leaq 96(%rsp), %rax
leaq 32(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$130(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_64$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$130:
leaq 256(%rsp), %rsp
movq 17136(%rsp), %rcx
addq $1152, %rcx
leaq 5280(%rsp), %rdx
leaq 32(%rsp), %rax
leaq 128(%rsp), %rsi
movq %rdx, 17144(%rsp)
movq %rcx, %rdi
leaq 6368(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$129(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$129:
addq $384, %rdi
leaq 6880(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$128(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$128:
addq $384, %rdi
leaq 7392(%rsp), %r8
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$127(%rip), %r10
jmp L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$127:
movq $0, %rdx
addq $1152, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$125
Ljade_kem_kyber_kyber768_amd64_avx2_dec$126:
movq (%rcx), %rdi
movq %rdi, (%rsp,%rdx,8)
addq $8, %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_avx2_dec$125:
cmpq $4, %rdx
jb Ljade_kem_kyber_kyber768_amd64_avx2_dec$126
leaq 3456(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$124(%rip), %r8
jmp L_poly_frommsg_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$124:
movq %rsi, 17152(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $0, 416(%rsp)
movb $0, 417(%rsp)
movb $0, 928(%rsp)
movb $1, 929(%rsp)
movb $0, 1440(%rsp)
movb $2, 1441(%rsp)
movb $1, 1952(%rsp)
movb $0, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$123(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$123:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$122(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$122:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$121(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$121:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$120(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$120:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 12512(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$119(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$119:
movq %r13, %r9
leaq 13024(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$118(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$118:
movq %r13, %rdi
leaq 13536(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$117(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$117:
movq %r13, %r8
leaq 14048(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$116(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$116:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$93
Ljade_kem_kyber_kyber768_amd64_avx2_dec$94:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$115(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$115:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 12512(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$110
Ljade_kem_kyber_kyber768_amd64_avx2_dec$111:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$114
movw %si, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$114:
cmpq $256, %r9
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$112
movw %r11w, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$113:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$112:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$110:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$111
leaq 13024(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$105
Ljade_kem_kyber_kyber768_amd64_avx2_dec$106:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$109
movw %si, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$109:
cmpq $256, %rdi
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$107
movw %r11w, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$108:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$107:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$105:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$106
leaq 13536(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$100
Ljade_kem_kyber_kyber768_amd64_avx2_dec$101:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$104
movw %si, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$104:
cmpq $256, %r8
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$102
movw %r11w, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$103:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$102:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$100:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$101
leaq 14048(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$95
Ljade_kem_kyber_kyber768_amd64_avx2_dec$96:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$99
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$99:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$97
movw %r11w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$98:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$97:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$95:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$96
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
Ljade_kem_kyber_kyber768_amd64_avx2_dec$93:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$94
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $1, 416(%rsp)
movb $1, 417(%rsp)
movb $1, 928(%rsp)
movb $2, 929(%rsp)
movb $2, 1440(%rsp)
movb $0, 1441(%rsp)
movb $2, 1952(%rsp)
movb $1, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$92(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$92:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$91(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$91:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$90(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$90:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$89(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$89:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 14560(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$88(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$88:
movq %r13, %rdi
leaq 15072(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$87(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$87:
movq %r13, %r8
leaq 15584(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$86(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$86:
movq %r13, %r9
leaq 16096(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$85(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$85:
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$62
Ljade_kem_kyber_kyber768_amd64_avx2_dec$63:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$84(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$84:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 14560(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$79
Ljade_kem_kyber_kyber768_amd64_avx2_dec$80:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$83
movw %si, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$83:
cmpq $256, %rdi
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$81
movw %r11w, (%rax,%rdi,2)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_avx2_dec$82:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$81:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$79:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$80
leaq 15072(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$74
Ljade_kem_kyber_kyber768_amd64_avx2_dec$75:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$78
movw %si, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$78:
cmpq $256, %r8
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$76
movw %r11w, (%rax,%r8,2)
incq %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$77:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$76:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$74:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$75
leaq 15584(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$69
Ljade_kem_kyber_kyber768_amd64_avx2_dec$70:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$73
movw %si, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$73:
cmpq $256, %r9
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$71
movw %r11w, (%rax,%r9,2)
incq %r9
Ljade_kem_kyber_kyber768_amd64_avx2_dec$72:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$71:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$69:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$70
leaq 16096(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$64
Ljade_kem_kyber_kyber768_amd64_avx2_dec$65:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$68
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$68:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66
cmpw $3329, %r11w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$66
movw %r11w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$67:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$66:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$64:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$65
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
Ljade_kem_kyber_kyber768_amd64_avx2_dec$62:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$63
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
movb $2, 416(%rsp)
movb $2, 417(%rsp)
leaq 384(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 352(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 160(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 160(%rsp,%rdx)
incq %rdx
movb $31, 160(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 160(%rsp,%rax)
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm6
vmovdqu 320(%rsp), %ymm3
vmovdqu 352(%rsp), %ymm4
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$61:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$61
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 552(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$60:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$60
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 720(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$59:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$59
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
leaq 16608(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$58(%rip), %r11
jmp L_rej_uniform_avx$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$58:
cmpq $255, %r13
setbe %al
vmovdqu 160(%rsp), %ymm6
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm3
vmovdqu 320(%rsp), %ymm4
vmovdqu 352(%rsp), %ymm5
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$50
Ljade_kem_kyber_kyber768_amd64_avx2_dec$51:
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
Ljade_kem_kyber_kyber768_amd64_avx2_dec$57:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$57
vmovdqu %ymm6, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm3, 288(%rsp)
vmovdqu %ymm4, 320(%rsp)
vmovdqu %ymm5, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 16608(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp Ljade_kem_kyber_kyber768_amd64_avx2_dec$52
Ljade_kem_kyber_kyber768_amd64_avx2_dec$53:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$56
movw %si, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$56:
cmpq $256, %r13
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_avx2_dec$54
movw %r8w, (%rax,%r13,2)
incq %r13
Ljade_kem_kyber_kyber768_amd64_avx2_dec$55:
Ljade_kem_kyber_kyber768_amd64_avx2_dec$54:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
Ljade_kem_kyber_kyber768_amd64_avx2_dec$52:
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$53
cmpq $255, %r13
setbe %al
Ljade_kem_kyber_kyber768_amd64_avx2_dec$50:
cmpb $0, %al
jne Ljade_kem_kyber_kyber768_amd64_avx2_dec$51
leaq 12512(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$49(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$49:
leaq 13024(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$48(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$48:
leaq 13536(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$47(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$47:
leaq 14048(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$46(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$46:
leaq 14560(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$45(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$45:
leaq 15072(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$44(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$44:
leaq 15584(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$43(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$43:
leaq 16096(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$42(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$42:
leaq 16608(%rsp), %rax
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$41(%rip), %rcx
jmp L_nttunpack$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$41:
movq 17152(%rsp), %r10
movb $0, %cl
leaq 7904(%rsp), %rax
leaq 8416(%rsp), %rdi
leaq 8928(%rsp), %r8
leaq 9440(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$40(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$40:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 9952(%rsp), %rax
leaq 10464(%rsp), %rdi
leaq 2944(%rsp), %r8
leaq 10976(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$39(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$39:
leaq 1472(%rsp), %rsp
leaq 7904(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$38(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$38:
leaq 8416(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$37(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$37:
leaq 8928(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$36(%rip), %rdi
jmp L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$36:
leaq 10976(%rsp), %rcx
leaq 12512(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$35(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$35:
leaq 2432(%rsp), %rcx
leaq 13024(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$34(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$34:
leaq 10976(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$33(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$33:
leaq 2432(%rsp), %rcx
leaq 13536(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$32(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$32:
leaq 10976(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$31(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$31:
leaq 11488(%rsp), %rcx
leaq 14048(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$30(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$30:
leaq 2432(%rsp), %rcx
leaq 14560(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$29(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$29:
leaq 11488(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$28(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$28:
leaq 2432(%rsp), %rcx
leaq 15072(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$27(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$27:
leaq 11488(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$26(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$26:
leaq 12000(%rsp), %rcx
leaq 15584(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$25(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$25:
leaq 2432(%rsp), %rcx
leaq 16096(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$24(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$24:
leaq 12000(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$23(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$23:
leaq 2432(%rsp), %rcx
leaq 16608(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$22(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$22:
leaq 12000(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$21(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$21:
leaq 2432(%rsp), %rcx
leaq 6368(%rsp), %rsi
leaq 7904(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$20(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$20:
leaq 3968(%rsp), %rcx
leaq 6880(%rsp), %rsi
leaq 8416(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$19(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$19:
leaq 2432(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$18(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$18:
leaq 3968(%rsp), %rcx
leaq 7392(%rsp), %rsi
leaq 8928(%rsp), %rdi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$17(%rip), %r8
jmp L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$17:
leaq 2432(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$16(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$16:
leaq 10976(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$15(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$15:
leaq 11488(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$14(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$14:
leaq 12000(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$13(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$13:
leaq 2432(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$12(%rip), %rdi
jmp L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$12:
leaq 10976(%rsp), %rcx
leaq 9440(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$11(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$11:
leaq 11488(%rsp), %rcx
leaq 9952(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$10(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$10:
leaq 12000(%rsp), %rcx
leaq 10464(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$9(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$9:
leaq 2432(%rsp), %rcx
leaq 2944(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$8(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$8:
leaq 2432(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$7(%rip), %rdi
jmp L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$7:
leaq 10976(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 11488(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 12000(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 2432(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 17144(%rsp), %rax
movq %rax, %rdx
leaq 10976(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$6(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$6:
leaq 11488(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$5(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$5:
leaq 12000(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$4(%rip), %r8
jmp L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$4:
leaq glob_data + 384(%rip), %rcx
vmovdqu (%rcx), %ymm0
vpsllw $3, %ymm0, %ymm1
vpbroadcastw glob_data + 6422(%rip), %ymm2
vpbroadcastw glob_data + 6420(%rip), %ymm3
vpbroadcastw glob_data + 6418(%rip), %ymm4
vpbroadcastq glob_data + 6184(%rip), %ymm5
vpbroadcastq glob_data + 6176(%rip), %ymm6
vmovdqu glob_data + 32(%rip), %ymm7
vmovdqu 10976(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, (%rdx)
vpextrd $0, %xmm8, 16(%rdx)
vmovdqu 11008(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 20(%rdx)
vpextrd $0, %xmm8, 36(%rdx)
vmovdqu 11040(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 40(%rdx)
vpextrd $0, %xmm8, 56(%rdx)
vmovdqu 11072(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 60(%rdx)
vpextrd $0, %xmm8, 76(%rdx)
vmovdqu 11104(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 80(%rdx)
vpextrd $0, %xmm8, 96(%rdx)
vmovdqu 11136(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 100(%rdx)
vpextrd $0, %xmm8, 116(%rdx)
vmovdqu 11168(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 120(%rdx)
vpextrd $0, %xmm8, 136(%rdx)
vmovdqu 11200(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 140(%rdx)
vpextrd $0, %xmm8, 156(%rdx)
vmovdqu 11232(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 160(%rdx)
vpextrd $0, %xmm8, 176(%rdx)
vmovdqu 11264(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 180(%rdx)
vpextrd $0, %xmm8, 196(%rdx)
vmovdqu 11296(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 200(%rdx)
vpextrd $0, %xmm8, 216(%rdx)
vmovdqu 11328(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 220(%rdx)
vpextrd $0, %xmm8, 236(%rdx)
vmovdqu 11360(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 240(%rdx)
vpextrd $0, %xmm8, 256(%rdx)
vmovdqu 11392(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 260(%rdx)
vpextrd $0, %xmm8, 276(%rdx)
vmovdqu 11424(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 280(%rdx)
vpextrd $0, %xmm8, 296(%rdx)
vmovdqu 11456(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 300(%rdx)
vpextrd $0, %xmm8, 316(%rdx)
vmovdqu 11488(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 320(%rdx)
vpextrd $0, %xmm8, 336(%rdx)
vmovdqu 11520(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 340(%rdx)
vpextrd $0, %xmm8, 356(%rdx)
vmovdqu 11552(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 360(%rdx)
vpextrd $0, %xmm8, 376(%rdx)
vmovdqu 11584(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 380(%rdx)
vpextrd $0, %xmm8, 396(%rdx)
vmovdqu 11616(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 400(%rdx)
vpextrd $0, %xmm8, 416(%rdx)
vmovdqu 11648(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 420(%rdx)
vpextrd $0, %xmm8, 436(%rdx)
vmovdqu 11680(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 440(%rdx)
vpextrd $0, %xmm8, 456(%rdx)
vmovdqu 11712(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 460(%rdx)
vpextrd $0, %xmm8, 476(%rdx)
vmovdqu 11744(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 480(%rdx)
vpextrd $0, %xmm8, 496(%rdx)
vmovdqu 11776(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 500(%rdx)
vpextrd $0, %xmm8, 516(%rdx)
vmovdqu 11808(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 520(%rdx)
vpextrd $0, %xmm8, 536(%rdx)
vmovdqu 11840(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 540(%rdx)
vpextrd $0, %xmm8, 556(%rdx)
vmovdqu 11872(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 560(%rdx)
vpextrd $0, %xmm8, 576(%rdx)
vmovdqu 11904(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 580(%rdx)
vpextrd $0, %xmm8, 596(%rdx)
vmovdqu 11936(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 600(%rdx)
vpextrd $0, %xmm8, 616(%rdx)
vmovdqu 11968(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 620(%rdx)
vpextrd $0, %xmm8, 636(%rdx)
vmovdqu 12000(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 640(%rdx)
vpextrd $0, %xmm8, 656(%rdx)
vmovdqu 12032(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 660(%rdx)
vpextrd $0, %xmm8, 676(%rdx)
vmovdqu 12064(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 680(%rdx)
vpextrd $0, %xmm8, 696(%rdx)
vmovdqu 12096(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 700(%rdx)
vpextrd $0, %xmm8, 716(%rdx)
vmovdqu 12128(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 720(%rdx)
vpextrd $0, %xmm8, 736(%rdx)
vmovdqu 12160(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 740(%rdx)
vpextrd $0, %xmm8, 756(%rdx)
vmovdqu 12192(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 760(%rdx)
vpextrd $0, %xmm8, 776(%rdx)
vmovdqu 12224(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 780(%rdx)
vpextrd $0, %xmm8, 796(%rdx)
vmovdqu 12256(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 800(%rdx)
vpextrd $0, %xmm8, 816(%rdx)
vmovdqu 12288(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 820(%rdx)
vpextrd $0, %xmm8, 836(%rdx)
vmovdqu 12320(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 840(%rdx)
vpextrd $0, %xmm8, 856(%rdx)
vmovdqu 12352(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 860(%rdx)
vpextrd $0, %xmm8, 876(%rdx)
vmovdqu 12384(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 880(%rdx)
vpextrd $0, %xmm8, 896(%rdx)
vmovdqu 12416(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 900(%rdx)
vpextrd $0, %xmm8, 916(%rdx)
vmovdqu 12448(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 920(%rdx)
vpextrd $0, %xmm8, 936(%rdx)
vmovdqu 12480(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm1
vpaddw %ymm2, %ymm8, %ymm2
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm0
vpsubw %ymm2, %ymm1, %ymm2
vpandn %ymm2, %ymm1, %ymm1
vpsrlw $15, %ymm1, %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vpmulhrsw %ymm3, %ymm0, %ymm0
vpand %ymm4, %ymm0, %ymm0
vpmaddwd %ymm5, %ymm0, %ymm0
vpsllvd %ymm6, %ymm0, %ymm0
vpsrlq $12, %ymm0, %ymm0
vpshufb %ymm7, %ymm0, %ymm0
vmovdqu %xmm0, %xmm1
vextracti128 $1, %ymm0, %xmm0
vpblendw $-32, %xmm0, %xmm1, %xmm1
vmovdqu %xmm1, 940(%rdx)
vpextrd $0, %xmm0, 956(%rdx)
leaq 960(%rax), %rax
leaq 2432(%rsp), %rcx
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$3(%rip), %rsi
jmp L_poly_compress_1$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$3:
movq 17128(%rsp), %r8
leaq 5280(%rsp), %rax
movq $0, %rcx
movq $1, %rdx
vpxor %ymm0, %ymm0, %ymm0
vmovdqu (%rax), %ymm1
vmovdqu (%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 32(%rax), %ymm1
vmovdqu 32(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 64(%rax), %ymm1
vmovdqu 64(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 96(%rax), %ymm1
vmovdqu 96(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 128(%rax), %ymm1
vmovdqu 128(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 160(%rax), %ymm1
vmovdqu 160(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 192(%rax), %ymm1
vmovdqu 192(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 224(%rax), %ymm1
vmovdqu 224(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 256(%rax), %ymm1
vmovdqu 256(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 288(%rax), %ymm1
vmovdqu 288(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 320(%rax), %ymm1
vmovdqu 320(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 352(%rax), %ymm1
vmovdqu 352(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 384(%rax), %ymm1
vmovdqu 384(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 416(%rax), %ymm1
vmovdqu 416(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 448(%rax), %ymm1
vmovdqu 448(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 480(%rax), %ymm1
vmovdqu 480(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 512(%rax), %ymm1
vmovdqu 512(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 544(%rax), %ymm1
vmovdqu 544(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 576(%rax), %ymm1
vmovdqu 576(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 608(%rax), %ymm1
vmovdqu 608(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 640(%rax), %ymm1
vmovdqu 640(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 672(%rax), %ymm1
vmovdqu 672(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 704(%rax), %ymm1
vmovdqu 704(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 736(%rax), %ymm1
vmovdqu 736(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 768(%rax), %ymm1
vmovdqu 768(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 800(%rax), %ymm1
vmovdqu 800(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 832(%rax), %ymm1
vmovdqu 832(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 864(%rax), %ymm1
vmovdqu 864(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 896(%rax), %ymm1
vmovdqu 896(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 928(%rax), %ymm1
vmovdqu 928(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 960(%rax), %ymm1
vmovdqu 960(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 992(%rax), %ymm1
vmovdqu 992(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 1024(%rax), %ymm1
vmovdqu 1024(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vmovdqu 1056(%rax), %ymm1
vmovdqu 1056(%r8), %ymm2
vpxor %ymm2, %ymm1, %ymm1
vpor %ymm1, %ymm0, %ymm0
vptest %ymm0, %ymm0
cmovne %rdx, %rcx
negq %rcx
shrq $63, %rcx
movq 17136(%rsp), %rax
addq $64, %rax
addq $2304, %rax
leaq 96(%rsp), %rdx
negq %rcx
movq %rcx, 17136(%rsp)
vpbroadcastq 17136(%rsp), %ymm0
vmovdqu (%rdx), %ymm1
vmovdqu (%rax), %ymm2
vpblendvb %ymm0, %ymm2, %ymm1, %ymm0
vmovdqu %ymm0, (%rdx)
movq $1088, %rdi
leaq 128(%rsp), %rax
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$2(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$2:
leaq 256(%rsp), %rsp
movq 17120(%rsp), %rdx
movq $32, %rcx
leaq 96(%rsp), %rax
leaq -256(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_dec$1(%rip), %rsi
movq %rsi, 224(%rsp)
jmp L_shake256_64$1
Ljade_kem_kyber_kyber768_amd64_avx2_dec$1:
leaq 256(%rsp), %rsp
xorq %rax, %rax
movq 17160(%rsp), %rbx
movq 17168(%rsp), %rbp
movq 17176(%rsp), %r12
movq 17184(%rsp), %r13
movq 17192(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_enc:
jade_kem_kyber_kyber768_amd64_avx2_enc:
movq %rsp, %rax
leaq -72(%rsp), %rsp
andq $-32, %rsp
movq %rax, 64(%rsp)
movq %rbx, 32(%rsp)
movq %rbp, 40(%rsp)
movq %r12, 48(%rsp)
movq %r13, 56(%rsp)
movq %rdi, %rbp
movq %rsi, %r12
movq %rdx, %rbx
movq %rsp, %rdi
movq $32, %rsi
call __jasmin_syscall_randombytes__
movq %rsp, %rcx
leaq -16064(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc$1(%rip), %rax
movq %rax, 16056(%rsp)
jmp L__crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_enc$1:
leaq 16064(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %rbx
movq 40(%rsp), %rbp
movq 48(%rsp), %r12
movq 56(%rsp), %r13
movq 64(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_enc_derand:
jade_kem_kyber_kyber768_amd64_avx2_enc_derand:
movq %rsp, %rax
leaq -72(%rsp), %rsp
andq $-32, %rsp
movq %rax, 64(%rsp)
movq %rbx, 32(%rsp)
movq %rbp, 40(%rsp)
movq %r12, 48(%rsp)
movq %r13, 56(%rsp)
movq %rdi, %rbp
movq %rsi, %r12
movq %rdx, %rbx
movq %rsp, %rax
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
movq %rsp, %rcx
leaq -16064(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1(%rip), %rax
movq %rax, 16056(%rsp)
jmp L__crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_enc_derand$1:
leaq 16064(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %rbx
movq 40(%rsp), %rbp
movq 48(%rsp), %r12
movq 56(%rsp), %r13
movq 64(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_keypair:
jade_kem_kyber_kyber768_amd64_avx2_keypair:
movq %rsp, %rax
leaq -104(%rsp), %rsp
andq $-32, %rsp
movq %rax, 96(%rsp)
movq %rbx, 64(%rsp)
movq %rbp, 72(%rsp)
movq %r12, 80(%rsp)
movq %r13, 88(%rsp)
movq %rdi, %rbp
movq %rsi, %rbx
movq %rsp, %rdi
movq $64, %rsi
call __jasmin_syscall_randombytes__
movq %rsp, %rax
leaq -13024(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1(%rip), %rcx
movq %rcx, 13000(%rsp)
jmp L__crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_keypair$1:
leaq 13024(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %rbx
movq 72(%rsp), %rbp
movq 80(%rsp), %r12
movq 88(%rsp), %r13
movq 96(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_avx2_keypair_derand:
jade_kem_kyber_kyber768_amd64_avx2_keypair_derand:
movq %rsp, %rax
leaq -104(%rsp), %rsp
andq $-32, %rsp
movq %rax, 96(%rsp)
movq %rbx, 64(%rsp)
movq %rbp, 72(%rsp)
movq %r12, 80(%rsp)
movq %r13, 88(%rsp)
movq %rdi, %rbp
movq %rsi, %rbx
movq %rsp, %rax
movb (%rdx), %cl
movb %cl, (%rax)
movb 1(%rdx), %cl
movb %cl, 1(%rax)
movb 2(%rdx), %cl
movb %cl, 2(%rax)
movb 3(%rdx), %cl
movb %cl, 3(%rax)
movb 4(%rdx), %cl
movb %cl, 4(%rax)
movb 5(%rdx), %cl
movb %cl, 5(%rax)
movb 6(%rdx), %cl
movb %cl, 6(%rax)
movb 7(%rdx), %cl
movb %cl, 7(%rax)
movb 8(%rdx), %cl
movb %cl, 8(%rax)
movb 9(%rdx), %cl
movb %cl, 9(%rax)
movb 10(%rdx), %cl
movb %cl, 10(%rax)
movb 11(%rdx), %cl
movb %cl, 11(%rax)
movb 12(%rdx), %cl
movb %cl, 12(%rax)
movb 13(%rdx), %cl
movb %cl, 13(%rax)
movb 14(%rdx), %cl
movb %cl, 14(%rax)
movb 15(%rdx), %cl
movb %cl, 15(%rax)
movb 16(%rdx), %cl
movb %cl, 16(%rax)
movb 17(%rdx), %cl
movb %cl, 17(%rax)
movb 18(%rdx), %cl
movb %cl, 18(%rax)
movb 19(%rdx), %cl
movb %cl, 19(%rax)
movb 20(%rdx), %cl
movb %cl, 20(%rax)
movb 21(%rdx), %cl
movb %cl, 21(%rax)
movb 22(%rdx), %cl
movb %cl, 22(%rax)
movb 23(%rdx), %cl
movb %cl, 23(%rax)
movb 24(%rdx), %cl
movb %cl, 24(%rax)
movb 25(%rdx), %cl
movb %cl, 25(%rax)
movb 26(%rdx), %cl
movb %cl, 26(%rax)
movb 27(%rdx), %cl
movb %cl, 27(%rax)
movb 28(%rdx), %cl
movb %cl, 28(%rax)
movb 29(%rdx), %cl
movb %cl, 29(%rax)
movb 30(%rdx), %cl
movb %cl, 30(%rax)
movb 31(%rdx), %cl
movb %cl, 31(%rax)
movb 32(%rdx), %cl
movb %cl, 32(%rax)
movb 33(%rdx), %cl
movb %cl, 33(%rax)
movb 34(%rdx), %cl
movb %cl, 34(%rax)
movb 35(%rdx), %cl
movb %cl, 35(%rax)
movb 36(%rdx), %cl
movb %cl, 36(%rax)
movb 37(%rdx), %cl
movb %cl, 37(%rax)
movb 38(%rdx), %cl
movb %cl, 38(%rax)
movb 39(%rdx), %cl
movb %cl, 39(%rax)
movb 40(%rdx), %cl
movb %cl, 40(%rax)
movb 41(%rdx), %cl
movb %cl, 41(%rax)
movb 42(%rdx), %cl
movb %cl, 42(%rax)
movb 43(%rdx), %cl
movb %cl, 43(%rax)
movb 44(%rdx), %cl
movb %cl, 44(%rax)
movb 45(%rdx), %cl
movb %cl, 45(%rax)
movb 46(%rdx), %cl
movb %cl, 46(%rax)
movb 47(%rdx), %cl
movb %cl, 47(%rax)
movb 48(%rdx), %cl
movb %cl, 48(%rax)
movb 49(%rdx), %cl
movb %cl, 49(%rax)
movb 50(%rdx), %cl
movb %cl, 50(%rax)
movb 51(%rdx), %cl
movb %cl, 51(%rax)
movb 52(%rdx), %cl
movb %cl, 52(%rax)
movb 53(%rdx), %cl
movb %cl, 53(%rax)
movb 54(%rdx), %cl
movb %cl, 54(%rax)
movb 55(%rdx), %cl
movb %cl, 55(%rax)
movb 56(%rdx), %cl
movb %cl, 56(%rax)
movb 57(%rdx), %cl
movb %cl, 57(%rax)
movb 58(%rdx), %cl
movb %cl, 58(%rax)
movb 59(%rdx), %cl
movb %cl, 59(%rax)
movb 60(%rdx), %cl
movb %cl, 60(%rax)
movb 61(%rdx), %cl
movb %cl, 61(%rax)
movb 62(%rdx), %cl
movb %cl, 62(%rax)
movb 63(%rdx), %cl
movb %cl, 63(%rax)
movq %rsp, %rax
leaq -13024(%rsp), %rsp
leaq Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1(%rip), %rcx
movq %rcx, 13000(%rsp)
jmp L__crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_avx2_keypair_derand$1:
leaq 13024(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %rbx
movq 72(%rsp), %rbp
movq 80(%rsp), %r12
movq 88(%rsp), %r13
movq 96(%rsp), %rsp
ret
L__crypto_kem_enc_derand_jazz$1:
movq %rbx, 16032(%rsp)
movq %rbp, 16040(%rsp)
movq %r12, 16048(%rsp)
leaq 32(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$133(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_256_32$1
L__crypto_kem_enc_derand_jazz$133:
leaq 256(%rsp), %rsp
movq 16032(%rsp), %r8
movq $1184, %rdi
leaq 64(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$132(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_enc_derand_jazz$132:
leaq 256(%rsp), %rsp
leaq 96(%rsp), %rax
leaq 32(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$131(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_64$1
L__crypto_kem_enc_derand_jazz$131:
leaq 256(%rsp), %rsp
movq 16032(%rsp), %rcx
leaq 32(%rsp), %rax
leaq 128(%rsp), %rdx
movq %rcx, %rdi
leaq 5280(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$130(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$130:
addq $384, %rdi
leaq 5792(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$129(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$129:
addq $384, %rdi
leaq 6304(%rsp), %r8
leaq L__crypto_kem_enc_derand_jazz$128(%rip), %r10
jmp L_poly_frombytes$1
L__crypto_kem_enc_derand_jazz$128:
movq $0, %rsi
addq $1152, %rcx
jmp L__crypto_kem_enc_derand_jazz$126
L__crypto_kem_enc_derand_jazz$127:
movq (%rcx), %rdi
movq %rdi, (%rsp,%rsi,8)
addq $8, %rcx
incq %rsi
L__crypto_kem_enc_derand_jazz$126:
cmpq $4, %rsi
jb L__crypto_kem_enc_derand_jazz$127
leaq 2432(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$125(%rip), %r8
jmp L_poly_frommsg_1$1
L__crypto_kem_enc_derand_jazz$125:
movq %rdx, 16032(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $0, 416(%rsp)
movb $0, 417(%rsp)
movb $0, 928(%rsp)
movb $1, 929(%rsp)
movb $0, 1440(%rsp)
movb $2, 1441(%rsp)
movb $1, 1952(%rsp)
movb $0, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$124(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_enc_derand_jazz$124:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$123(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$123:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$122(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$122:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$121(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$121:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 11424(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$120(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$120:
movq %r13, %r9
leaq 11936(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$119(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$119:
movq %r13, %rdi
leaq 12448(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$118(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$118:
movq %r13, %r8
leaq 12960(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$117(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$117:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_enc_derand_jazz$94
L__crypto_kem_enc_derand_jazz$95:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$116(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$116:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 11424(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$111
L__crypto_kem_enc_derand_jazz$112:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$115
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$115:
cmpq $256, %r9
jnb L__crypto_kem_enc_derand_jazz$113
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$113
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$114:
L__crypto_kem_enc_derand_jazz$113:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$111:
jne L__crypto_kem_enc_derand_jazz$112
leaq 11936(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$106
L__crypto_kem_enc_derand_jazz$107:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$110
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$110:
cmpq $256, %rdi
jnb L__crypto_kem_enc_derand_jazz$108
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$108
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$109:
L__crypto_kem_enc_derand_jazz$108:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$106:
jne L__crypto_kem_enc_derand_jazz$107
leaq 12448(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$101
L__crypto_kem_enc_derand_jazz$102:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$105
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$105:
cmpq $256, %r8
jnb L__crypto_kem_enc_derand_jazz$103
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$103
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$104:
L__crypto_kem_enc_derand_jazz$103:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$101:
jne L__crypto_kem_enc_derand_jazz$102
leaq 12960(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$96
L__crypto_kem_enc_derand_jazz$97:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$100
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$100:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$98
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$98
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$99:
L__crypto_kem_enc_derand_jazz$98:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$96:
jne L__crypto_kem_enc_derand_jazz$97
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_enc_derand_jazz$94:
jne L__crypto_kem_enc_derand_jazz$95
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
vmovdqu %ymm0, 896(%rsp)
vmovdqu %ymm0, 1408(%rsp)
vmovdqu %ymm0, 1920(%rsp)
vmovdqu %ymm0, (%rsp)
movb $1, 416(%rsp)
movb $1, 417(%rsp)
movb $1, 928(%rsp)
movb $2, 929(%rsp)
movb $2, 1440(%rsp)
movb $0, 1441(%rsp)
movb $2, 1952(%rsp)
movb $1, 1953(%rsp)
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rcx
leaq 896(%rsp), %rdx
leaq 1408(%rsp), %rsi
leaq 1920(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$93(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_enc_derand_jazz$93:
leaq 8(%rsp), %rsp
leaq 4480(%rsp), %rax
leaq 384(%rsp), %rdi
leaq 896(%rsp), %r8
leaq 1408(%rsp), %r9
leaq 1920(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$92(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$92:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$91(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$91:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$90(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$90:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 13472(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$89(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$89:
movq %r13, %rdi
leaq 13984(%rsp), %rbx
leaq 896(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$88(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$88:
movq %r13, %r8
leaq 14496(%rsp), %rbx
leaq 1408(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$87(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$87:
movq %r13, %r9
leaq 15008(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$86(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$86:
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_enc_derand_jazz$63
L__crypto_kem_enc_derand_jazz$64:
leaq 4480(%rsp), %rax
leaq 384(%rsp), %r10
leaq 896(%rsp), %r11
leaq 1408(%rsp), %rbx
leaq 1920(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$85(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_enc_derand_jazz$85:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 13472(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$80
L__crypto_kem_enc_derand_jazz$81:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$84
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$84:
cmpq $256, %rdi
jnb L__crypto_kem_enc_derand_jazz$82
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$82
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_enc_derand_jazz$83:
L__crypto_kem_enc_derand_jazz$82:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$80:
jne L__crypto_kem_enc_derand_jazz$81
leaq 13984(%rsp), %rax
leaq 896(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$75
L__crypto_kem_enc_derand_jazz$76:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$79
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$79:
cmpq $256, %r8
jnb L__crypto_kem_enc_derand_jazz$77
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$77
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_enc_derand_jazz$78:
L__crypto_kem_enc_derand_jazz$77:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$75:
jne L__crypto_kem_enc_derand_jazz$76
leaq 14496(%rsp), %rax
leaq 1408(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$70
L__crypto_kem_enc_derand_jazz$71:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$74
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$74:
cmpq $256, %r9
jnb L__crypto_kem_enc_derand_jazz$72
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$72
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_enc_derand_jazz$73:
L__crypto_kem_enc_derand_jazz$72:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$70:
jne L__crypto_kem_enc_derand_jazz$71
leaq 15008(%rsp), %rax
leaq 1920(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_enc_derand_jazz$65
L__crypto_kem_enc_derand_jazz$66:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$69
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$69:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$67
cmpw $3329, %r11w
jnb L__crypto_kem_enc_derand_jazz$67
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$68:
L__crypto_kem_enc_derand_jazz$67:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_enc_derand_jazz$65:
jne L__crypto_kem_enc_derand_jazz$66
cmpq $255, %rdi
setbe %al
cmpq $255, %r8
setbe %cl
orb %cl, %al
cmpq $255, %r9
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_enc_derand_jazz$63:
jne L__crypto_kem_enc_derand_jazz$64
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 384(%rsp)
movb $2, 416(%rsp)
movb $2, 417(%rsp)
leaq 384(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 352(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 160(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 160(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 160(%rsp,%rdx)
incq %rdx
movb $31, 160(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 160(%rsp,%rax)
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm6
vmovdqu 320(%rsp), %ymm3
vmovdqu 352(%rsp), %ymm4
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$62:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$62
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 552(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$61:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$61
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 720(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$60:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$60
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm6, 288(%rsp)
vmovdqu %ymm3, 320(%rsp)
vmovdqu %ymm4, 352(%rsp)
leaq 15520(%rsp), %rbx
leaq 384(%rsp), %rbp
leaq L__crypto_kem_enc_derand_jazz$59(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_enc_derand_jazz$59:
cmpq $255, %r13
setbe %al
vmovdqu 160(%rsp), %ymm6
vmovdqu 192(%rsp), %ymm0
vmovdqu 224(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 288(%rsp), %ymm3
vmovdqu 320(%rsp), %ymm4
vmovdqu 352(%rsp), %ymm5
jmp L__crypto_kem_enc_derand_jazz$51
L__crypto_kem_enc_derand_jazz$52:
leaq 384(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_enc_derand_jazz$58:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L__crypto_kem_enc_derand_jazz$58
vmovdqu %ymm6, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm1, 224(%rsp)
vmovdqu %ymm2, 256(%rsp)
vmovdqu %ymm3, 288(%rsp)
vmovdqu %ymm4, 320(%rsp)
vmovdqu %ymm5, 352(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 160(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 15520(%rsp), %rax
leaq 384(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp L__crypto_kem_enc_derand_jazz$53
L__crypto_kem_enc_derand_jazz$54:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_enc_derand_jazz$57
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$57:
cmpq $256, %r13
jnb L__crypto_kem_enc_derand_jazz$55
cmpw $3329, %r8w
jnb L__crypto_kem_enc_derand_jazz$55
movw %r8w, (%rax,%r13,2)
incq %r13
L__crypto_kem_enc_derand_jazz$56:
L__crypto_kem_enc_derand_jazz$55:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
L__crypto_kem_enc_derand_jazz$53:
jne L__crypto_kem_enc_derand_jazz$54
cmpq $255, %r13
setbe %al
L__crypto_kem_enc_derand_jazz$51:
cmpb $0, %al
jne L__crypto_kem_enc_derand_jazz$52
leaq 11424(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$50(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$50:
leaq 11936(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$49(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$49:
leaq 12448(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$48(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$48:
leaq 12960(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$47(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$47:
leaq 13472(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$46(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$46:
leaq 13984(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$45(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$45:
leaq 14496(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$44(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$44:
leaq 15008(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$43(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$43:
leaq 15520(%rsp), %rax
leaq L__crypto_kem_enc_derand_jazz$42(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_enc_derand_jazz$42:
movq 16032(%rsp), %r10
movb $0, %cl
leaq 6816(%rsp), %rax
leaq 7328(%rsp), %rdi
leaq 7840(%rsp), %r8
leaq 8352(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$41(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_enc_derand_jazz$41:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 8864(%rsp), %rax
leaq 9376(%rsp), %rdi
leaq 2944(%rsp), %r8
leaq 9888(%rsp), %r9
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$40(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_enc_derand_jazz$40:
leaq 1472(%rsp), %rsp
leaq 6816(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$39(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$39:
leaq 7328(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$38(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$38:
leaq 7840(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$37(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_enc_derand_jazz$37:
leaq 9888(%rsp), %rcx
leaq 11424(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$36(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$36:
leaq 3456(%rsp), %rcx
leaq 11936(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$35(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$35:
leaq 9888(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$34(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$34:
leaq 3456(%rsp), %rcx
leaq 12448(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$33(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$33:
leaq 9888(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$32(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$32:
leaq 10400(%rsp), %rcx
leaq 12960(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$31(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$31:
leaq 3456(%rsp), %rcx
leaq 13472(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$30(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$30:
leaq 10400(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$29(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$29:
leaq 3456(%rsp), %rcx
leaq 13984(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$28(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$28:
leaq 10400(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$27(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$27:
leaq 10912(%rsp), %rcx
leaq 14496(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$26(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$26:
leaq 3456(%rsp), %rcx
leaq 15008(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$25(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$25:
leaq 10912(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$24(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$24:
leaq 3456(%rsp), %rcx
leaq 15520(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$23(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$23:
leaq 10912(%rsp), %rcx
leaq 3456(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$22(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$22:
leaq 3456(%rsp), %rcx
leaq 5280(%rsp), %rsi
leaq 6816(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$21(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$21:
leaq 3968(%rsp), %rcx
leaq 5792(%rsp), %rsi
leaq 7328(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$20(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$20:
leaq 3456(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$19(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$19:
leaq 3968(%rsp), %rcx
leaq 6304(%rsp), %rsi
leaq 7840(%rsp), %rdi
leaq L__crypto_kem_enc_derand_jazz$18(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_enc_derand_jazz$18:
leaq 3456(%rsp), %rcx
leaq 3968(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$17(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$17:
leaq 9888(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$16(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$16:
leaq 10400(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$15(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$15:
leaq 10912(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$14(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$14:
leaq 3456(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$13(%rip), %rdi
jmp L_poly_invntt$1
L__crypto_kem_enc_derand_jazz$13:
leaq 9888(%rsp), %rcx
leaq 8352(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$12(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$12:
leaq 10400(%rsp), %rcx
leaq 8864(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$11(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$11:
leaq 10912(%rsp), %rcx
leaq 9376(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$10(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$10:
leaq 3456(%rsp), %rcx
leaq 2944(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$9(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$9:
leaq 3456(%rsp), %rcx
leaq 2432(%rsp), %rsi
leaq L__crypto_kem_enc_derand_jazz$8(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_enc_derand_jazz$8:
leaq 9888(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 10400(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 10912(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 3456(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 16040(%rsp), %rax
leaq 9888(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$7(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$7:
leaq 10400(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$6(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$6:
leaq 10912(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$5(%rip), %r8
jmp L_poly_csubq$1
L__crypto_kem_enc_derand_jazz$5:
leaq glob_data + 384(%rip), %rcx
vmovdqu (%rcx), %ymm0
vpsllw $3, %ymm0, %ymm1
vpbroadcastw glob_data + 6422(%rip), %ymm2
vpbroadcastw glob_data + 6420(%rip), %ymm3
vpbroadcastw glob_data + 6418(%rip), %ymm4
vpbroadcastq glob_data + 6184(%rip), %ymm5
vpbroadcastq glob_data + 6176(%rip), %ymm6
vmovdqu glob_data + 32(%rip), %ymm7
vmovdqu 9888(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, (%rax)
vpextrd $0, %xmm8, 16(%rax)
vmovdqu 9920(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 20(%rax)
vpextrd $0, %xmm8, 36(%rax)
vmovdqu 9952(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 40(%rax)
vpextrd $0, %xmm8, 56(%rax)
vmovdqu 9984(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 60(%rax)
vpextrd $0, %xmm8, 76(%rax)
vmovdqu 10016(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 80(%rax)
vpextrd $0, %xmm8, 96(%rax)
vmovdqu 10048(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 100(%rax)
vpextrd $0, %xmm8, 116(%rax)
vmovdqu 10080(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 120(%rax)
vpextrd $0, %xmm8, 136(%rax)
vmovdqu 10112(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 140(%rax)
vpextrd $0, %xmm8, 156(%rax)
vmovdqu 10144(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 160(%rax)
vpextrd $0, %xmm8, 176(%rax)
vmovdqu 10176(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 180(%rax)
vpextrd $0, %xmm8, 196(%rax)
vmovdqu 10208(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 200(%rax)
vpextrd $0, %xmm8, 216(%rax)
vmovdqu 10240(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 220(%rax)
vpextrd $0, %xmm8, 236(%rax)
vmovdqu 10272(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 240(%rax)
vpextrd $0, %xmm8, 256(%rax)
vmovdqu 10304(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 260(%rax)
vpextrd $0, %xmm8, 276(%rax)
vmovdqu 10336(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 280(%rax)
vpextrd $0, %xmm8, 296(%rax)
vmovdqu 10368(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 300(%rax)
vpextrd $0, %xmm8, 316(%rax)
vmovdqu 10400(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 320(%rax)
vpextrd $0, %xmm8, 336(%rax)
vmovdqu 10432(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 340(%rax)
vpextrd $0, %xmm8, 356(%rax)
vmovdqu 10464(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 360(%rax)
vpextrd $0, %xmm8, 376(%rax)
vmovdqu 10496(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 380(%rax)
vpextrd $0, %xmm8, 396(%rax)
vmovdqu 10528(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 400(%rax)
vpextrd $0, %xmm8, 416(%rax)
vmovdqu 10560(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 420(%rax)
vpextrd $0, %xmm8, 436(%rax)
vmovdqu 10592(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 440(%rax)
vpextrd $0, %xmm8, 456(%rax)
vmovdqu 10624(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 460(%rax)
vpextrd $0, %xmm8, 476(%rax)
vmovdqu 10656(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 480(%rax)
vpextrd $0, %xmm8, 496(%rax)
vmovdqu 10688(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 500(%rax)
vpextrd $0, %xmm8, 516(%rax)
vmovdqu 10720(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 520(%rax)
vpextrd $0, %xmm8, 536(%rax)
vmovdqu 10752(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 540(%rax)
vpextrd $0, %xmm8, 556(%rax)
vmovdqu 10784(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 560(%rax)
vpextrd $0, %xmm8, 576(%rax)
vmovdqu 10816(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 580(%rax)
vpextrd $0, %xmm8, 596(%rax)
vmovdqu 10848(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 600(%rax)
vpextrd $0, %xmm8, 616(%rax)
vmovdqu 10880(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 620(%rax)
vpextrd $0, %xmm8, 636(%rax)
vmovdqu 10912(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 640(%rax)
vpextrd $0, %xmm8, 656(%rax)
vmovdqu 10944(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 660(%rax)
vpextrd $0, %xmm8, 676(%rax)
vmovdqu 10976(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 680(%rax)
vpextrd $0, %xmm8, 696(%rax)
vmovdqu 11008(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 700(%rax)
vpextrd $0, %xmm8, 716(%rax)
vmovdqu 11040(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 720(%rax)
vpextrd $0, %xmm8, 736(%rax)
vmovdqu 11072(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 740(%rax)
vpextrd $0, %xmm8, 756(%rax)
vmovdqu 11104(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 760(%rax)
vpextrd $0, %xmm8, 776(%rax)
vmovdqu 11136(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 780(%rax)
vpextrd $0, %xmm8, 796(%rax)
vmovdqu 11168(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 800(%rax)
vpextrd $0, %xmm8, 816(%rax)
vmovdqu 11200(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 820(%rax)
vpextrd $0, %xmm8, 836(%rax)
vmovdqu 11232(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 840(%rax)
vpextrd $0, %xmm8, 856(%rax)
vmovdqu 11264(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 860(%rax)
vpextrd $0, %xmm8, 876(%rax)
vmovdqu 11296(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 880(%rax)
vpextrd $0, %xmm8, 896(%rax)
vmovdqu 11328(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 900(%rax)
vpextrd $0, %xmm8, 916(%rax)
vmovdqu 11360(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm9
vpaddw %ymm2, %ymm8, %ymm10
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm10, %ymm9, %ymm10
vpandn %ymm10, %ymm9, %ymm9
vpsrlw $15, %ymm9, %ymm9
vpsubw %ymm9, %ymm8, %ymm8
vpmulhrsw %ymm3, %ymm8, %ymm8
vpand %ymm4, %ymm8, %ymm8
vpmaddwd %ymm5, %ymm8, %ymm8
vpsllvd %ymm6, %ymm8, %ymm8
vpsrlq $12, %ymm8, %ymm8
vpshufb %ymm7, %ymm8, %ymm8
vmovdqu %xmm8, %xmm9
vextracti128 $1, %ymm8, %xmm8
vpblendw $-32, %xmm8, %xmm9, %xmm9
vmovdqu %xmm9, 920(%rax)
vpextrd $0, %xmm8, 936(%rax)
vmovdqu 11392(%rsp), %ymm8
vpmullw %ymm1, %ymm8, %ymm1
vpaddw %ymm2, %ymm8, %ymm2
vpsllw $3, %ymm8, %ymm8
vpmulhw %ymm0, %ymm8, %ymm0
vpsubw %ymm2, %ymm1, %ymm2
vpandn %ymm2, %ymm1, %ymm1
vpsrlw $15, %ymm1, %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vpmulhrsw %ymm3, %ymm0, %ymm0
vpand %ymm4, %ymm0, %ymm0
vpmaddwd %ymm5, %ymm0, %ymm0
vpsllvd %ymm6, %ymm0, %ymm0
vpsrlq $12, %ymm0, %ymm0
vpshufb %ymm7, %ymm0, %ymm0
vmovdqu %xmm0, %xmm1
vextracti128 $1, %ymm0, %xmm0
vpblendw $-32, %xmm0, %xmm1, %xmm1
vmovdqu %xmm1, 940(%rax)
vpextrd $0, %xmm0, 956(%rax)
addq $960, %rax
leaq 3456(%rsp), %rcx
leaq L__crypto_kem_enc_derand_jazz$4(%rip), %rsi
jmp L_poly_compress$1
L__crypto_kem_enc_derand_jazz$4:
movq 16040(%rsp), %r8
movq $1088, %rdi
leaq 128(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$3(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_enc_derand_jazz$3:
leaq 256(%rsp), %rsp
movq 16048(%rsp), %rdx
movq $32, %rcx
leaq 96(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_enc_derand_jazz$2(%rip), %rsi
movq %rsi, 224(%rsp)
jmp L_shake256_64$1
L__crypto_kem_enc_derand_jazz$2:
leaq 256(%rsp), %rsp
jmp *16056(%rsp)
L__crypto_kem_keypair_derand_jazz$1:
movq %rax, 12896(%rsp)
movq %rbp, 12904(%rsp)
movq %rbx, 12912(%rsp)
movq %rax, %rcx
movq %rbp, 12920(%rsp)
movq %rbx, 12928(%rsp)
leaq 12936(%rsp), %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$121(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_sha3_512_32$1
L__crypto_kem_keypair_derand_jazz$121:
leaq 256(%rsp), %rsp
movq 12936(%rsp), %rax
movq %rax, (%rsp)
movq 12968(%rsp), %rax
movq %rax, 32(%rsp)
movq 12944(%rsp), %rax
movq %rax, 8(%rsp)
movq 12976(%rsp), %rax
movq %rax, 40(%rsp)
movq 12952(%rsp), %rax
movq %rax, 16(%rsp)
movq 12984(%rsp), %rax
movq %rax, 48(%rsp)
movq 12960(%rsp), %rax
movq %rax, 24(%rsp)
movq 12992(%rsp), %rax
movq %rax, 56(%rsp)
vmovdqu (%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 832(%rsp)
vmovdqu %ymm0, 1344(%rsp)
vmovdqu %ymm0, 1856(%rsp)
vmovdqu %ymm0, 64(%rsp)
movb $0, 352(%rsp)
movb $0, 353(%rsp)
movb $1, 864(%rsp)
movb $0, 865(%rsp)
movb $2, 1376(%rsp)
movb $0, 1377(%rsp)
movb $0, 1888(%rsp)
movb $1, 1889(%rsp)
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rcx
leaq 832(%rsp), %rdx
leaq 1344(%rsp), %rsi
leaq 1856(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$120(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_keypair_derand_jazz$120:
leaq 8(%rsp), %rsp
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rdi
leaq 832(%rsp), %r8
leaq 1344(%rsp), %r9
leaq 1856(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$119(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$119:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$118(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$118:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$117(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$117:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 8288(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$116(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$116:
movq %r13, %rdi
leaq 8800(%rsp), %rbx
leaq 832(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$115(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$115:
movq %r13, %r9
leaq 9312(%rsp), %rbx
leaq 1344(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$114(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$114:
movq %r13, %r8
leaq 9824(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$113(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$113:
cmpq $255, %rdi
setbe %al
cmpq $255, %r9
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_keypair_derand_jazz$90
L__crypto_kem_keypair_derand_jazz$91:
leaq 2880(%rsp), %rax
leaq 320(%rsp), %r10
leaq 832(%rsp), %r11
leaq 1344(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$112(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$112:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 8288(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$107
L__crypto_kem_keypair_derand_jazz$108:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$111
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$111:
cmpq $256, %rdi
jnb L__crypto_kem_keypair_derand_jazz$109
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$109
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$110:
L__crypto_kem_keypair_derand_jazz$109:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$107:
jne L__crypto_kem_keypair_derand_jazz$108
leaq 8800(%rsp), %rax
leaq 832(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$102
L__crypto_kem_keypair_derand_jazz$103:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$106
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$106:
cmpq $256, %r9
jnb L__crypto_kem_keypair_derand_jazz$104
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$104
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$105:
L__crypto_kem_keypair_derand_jazz$104:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$102:
jne L__crypto_kem_keypair_derand_jazz$103
leaq 9312(%rsp), %rax
leaq 1344(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$97
L__crypto_kem_keypair_derand_jazz$98:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$101
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$101:
cmpq $256, %r8
jnb L__crypto_kem_keypair_derand_jazz$99
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$99
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$100:
L__crypto_kem_keypair_derand_jazz$99:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$97:
jne L__crypto_kem_keypair_derand_jazz$98
leaq 9824(%rsp), %rax
leaq 1856(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$92
L__crypto_kem_keypair_derand_jazz$93:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$96
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$96:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$94
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$94
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$95:
L__crypto_kem_keypair_derand_jazz$94:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$92:
jne L__crypto_kem_keypair_derand_jazz$93
cmpq $255, %rdi
setbe %al
cmpq $255, %r9
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_keypair_derand_jazz$90:
jne L__crypto_kem_keypair_derand_jazz$91
vmovdqu 64(%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 832(%rsp)
vmovdqu %ymm0, 1344(%rsp)
vmovdqu %ymm0, 1856(%rsp)
vmovdqu %ymm0, 64(%rsp)
movb $1, 352(%rsp)
movb $1, 353(%rsp)
movb $2, 864(%rsp)
movb $1, 865(%rsp)
movb $0, 1376(%rsp)
movb $2, 1377(%rsp)
movb $1, 1888(%rsp)
movb $2, 1889(%rsp)
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rcx
leaq 832(%rsp), %rdx
leaq 1344(%rsp), %rsi
leaq 1856(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$89(%rip), %r8
movq %r8, (%rsp)
jmp L_shake128_absorb4x_34$1
L__crypto_kem_keypair_derand_jazz$89:
leaq 8(%rsp), %rsp
leaq 2880(%rsp), %rax
leaq 320(%rsp), %rdi
leaq 832(%rsp), %r8
leaq 1344(%rsp), %r9
leaq 1856(%rsp), %r10
movq %rdi, %r11
movq %r8, %rbx
movq %r9, %rbp
movq %r10, %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$88(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$88:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 168(%rdi), %r11
leaq 168(%r8), %rbx
leaq 168(%r9), %rbp
leaq 168(%r10), %r12
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$87(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$87:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r11)
vmovhpd %xmm1, 136(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbp)
vmovhpd %xmm0, 136(%r12)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r11)
vmovhpd %xmm1, 144(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbp)
vmovhpd %xmm0, 144(%r12)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r11)
vmovhpd %xmm1, 152(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbp)
vmovhpd %xmm0, 152(%r12)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r11)
vmovhpd %xmm1, 160(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbp)
vmovhpd %xmm0, 160(%r12)
leaq 336(%rdi), %rdi
leaq 336(%r8), %r8
leaq 336(%r9), %r9
leaq 336(%r10), %r10
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$86(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$86:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%rdi)
vmovhpd %xmm1, (%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%r9)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%rdi)
vmovhpd %xmm1, 8(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%r9)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%rdi)
vmovhpd %xmm1, 16(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%r9)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%rdi)
vmovhpd %xmm1, 24(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%r9)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%rdi)
vmovhpd %xmm1, 32(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%r9)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%rdi)
vmovhpd %xmm1, 40(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%r9)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%rdi)
vmovhpd %xmm1, 48(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%r9)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%rdi)
vmovhpd %xmm1, 56(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%r9)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%rdi)
vmovhpd %xmm1, 64(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%r9)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%rdi)
vmovhpd %xmm1, 72(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%r9)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%rdi)
vmovhpd %xmm1, 80(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%r9)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%rdi)
vmovhpd %xmm1, 88(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%r9)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%rdi)
vmovhpd %xmm1, 96(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%r9)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%rdi)
vmovhpd %xmm1, 104(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%r9)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%rdi)
vmovhpd %xmm1, 112(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%r9)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%rdi)
vmovhpd %xmm1, 120(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%r9)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%rdi)
vmovhpd %xmm1, 128(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%r9)
vmovhpd %xmm0, 128(%r10)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%rdi)
vmovhpd %xmm1, 136(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%r9)
vmovhpd %xmm0, 136(%r10)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%rdi)
vmovhpd %xmm1, 144(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%r9)
vmovhpd %xmm0, 144(%r10)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%rdi)
vmovhpd %xmm1, 152(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%r9)
vmovhpd %xmm0, 152(%r10)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%rdi)
vmovhpd %xmm1, 160(%r8)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%r9)
vmovhpd %xmm0, 160(%r10)
leaq 10336(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$85(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$85:
movq %r13, %r9
leaq 10848(%rsp), %rbx
leaq 832(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$84(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$84:
movq %r13, %rdi
leaq 11360(%rsp), %rbx
leaq 1344(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$83(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$83:
movq %r13, %r8
leaq 11872(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$82(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$82:
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
jmp L__crypto_kem_keypair_derand_jazz$59
L__crypto_kem_keypair_derand_jazz$60:
leaq 2880(%rsp), %rax
leaq 320(%rsp), %r10
leaq 832(%rsp), %r11
leaq 1344(%rsp), %rbx
leaq 1856(%rsp), %rbp
leaq -832(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$81(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L__crypto_kem_keypair_derand_jazz$81:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r10)
vmovhpd %xmm1, (%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbx)
vmovhpd %xmm0, (%rbp)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r10)
vmovhpd %xmm1, 8(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbx)
vmovhpd %xmm0, 8(%rbp)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r10)
vmovhpd %xmm1, 16(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbx)
vmovhpd %xmm0, 16(%rbp)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r10)
vmovhpd %xmm1, 24(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbx)
vmovhpd %xmm0, 24(%rbp)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r10)
vmovhpd %xmm1, 32(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbx)
vmovhpd %xmm0, 32(%rbp)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r10)
vmovhpd %xmm1, 40(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbx)
vmovhpd %xmm0, 40(%rbp)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r10)
vmovhpd %xmm1, 48(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbx)
vmovhpd %xmm0, 48(%rbp)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r10)
vmovhpd %xmm1, 56(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbx)
vmovhpd %xmm0, 56(%rbp)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r10)
vmovhpd %xmm1, 64(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbx)
vmovhpd %xmm0, 64(%rbp)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r10)
vmovhpd %xmm1, 72(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbx)
vmovhpd %xmm0, 72(%rbp)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r10)
vmovhpd %xmm1, 80(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbx)
vmovhpd %xmm0, 80(%rbp)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r10)
vmovhpd %xmm1, 88(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbx)
vmovhpd %xmm0, 88(%rbp)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r10)
vmovhpd %xmm1, 96(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbx)
vmovhpd %xmm0, 96(%rbp)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r10)
vmovhpd %xmm1, 104(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbx)
vmovhpd %xmm0, 104(%rbp)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r10)
vmovhpd %xmm1, 112(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbx)
vmovhpd %xmm0, 112(%rbp)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r10)
vmovhpd %xmm1, 120(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbx)
vmovhpd %xmm0, 120(%rbp)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r10)
vmovhpd %xmm1, 128(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbx)
vmovhpd %xmm0, 128(%rbp)
vmovdqu 544(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 136(%r10)
vmovhpd %xmm1, 136(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 136(%rbx)
vmovhpd %xmm0, 136(%rbp)
vmovdqu 576(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 144(%r10)
vmovhpd %xmm1, 144(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 144(%rbx)
vmovhpd %xmm0, 144(%rbp)
vmovdqu 608(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 152(%r10)
vmovhpd %xmm1, 152(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 152(%rbx)
vmovhpd %xmm0, 152(%rbp)
vmovdqu 640(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 160(%r10)
vmovhpd %xmm1, 160(%r11)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 160(%rbx)
vmovhpd %xmm0, 160(%rbp)
leaq 10336(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$76
L__crypto_kem_keypair_derand_jazz$77:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$80
movw %si, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$80:
cmpq $256, %r9
jnb L__crypto_kem_keypair_derand_jazz$78
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$78
movw %r11w, (%rax,%r9,2)
incq %r9
L__crypto_kem_keypair_derand_jazz$79:
L__crypto_kem_keypair_derand_jazz$78:
cmpq $255, %r9
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$76:
jne L__crypto_kem_keypair_derand_jazz$77
leaq 10848(%rsp), %rax
leaq 832(%rsp), %rcx
movq $0, %rdx
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$71
L__crypto_kem_keypair_derand_jazz$72:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$75
movw %si, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$75:
cmpq $256, %rdi
jnb L__crypto_kem_keypair_derand_jazz$73
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$73
movw %r11w, (%rax,%rdi,2)
incq %rdi
L__crypto_kem_keypair_derand_jazz$74:
L__crypto_kem_keypair_derand_jazz$73:
cmpq $255, %rdi
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$71:
jne L__crypto_kem_keypair_derand_jazz$72
leaq 11360(%rsp), %rax
leaq 1344(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$66
L__crypto_kem_keypair_derand_jazz$67:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$70
movw %si, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$70:
cmpq $256, %r8
jnb L__crypto_kem_keypair_derand_jazz$68
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$68
movw %r11w, (%rax,%r8,2)
incq %r8
L__crypto_kem_keypair_derand_jazz$69:
L__crypto_kem_keypair_derand_jazz$68:
cmpq $255, %r8
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$66:
jne L__crypto_kem_keypair_derand_jazz$67
leaq 11872(%rsp), %rax
leaq 1856(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
jmp L__crypto_kem_keypair_derand_jazz$61
L__crypto_kem_keypair_derand_jazz$62:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
movw %r10w, %r11w
shrw $4, %r11w
andw $15, %r10w
shlw $8, %r10w
orw %r10w, %si
incq %rdx
movzbw (%rcx,%rdx), %r10w
shlw $4, %r10w
orw %r10w, %r11w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$65
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$65:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$63
cmpw $3329, %r11w
jnb L__crypto_kem_keypair_derand_jazz$63
movw %r11w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$64:
L__crypto_kem_keypair_derand_jazz$63:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %r10b
testb %r10b, %sil
L__crypto_kem_keypair_derand_jazz$61:
jne L__crypto_kem_keypair_derand_jazz$62
cmpq $255, %r9
setbe %al
cmpq $255, %rdi
setbe %cl
orb %cl, %al
cmpq $255, %r8
setbe %cl
cmpq $255, %r13
setbe %dl
orb %dl, %cl
orb %al, %cl
L__crypto_kem_keypair_derand_jazz$59:
jne L__crypto_kem_keypair_derand_jazz$60
vmovdqu 64(%rsp), %ymm0
vmovdqu %ymm0, 320(%rsp)
movb $2, 352(%rsp)
movb $2, 353(%rsp)
leaq 320(%rsp), %rax
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vmovdqu %ymm0, 224(%rsp)
vmovdqu %ymm0, 256(%rsp)
vmovdqu %ymm0, 288(%rsp)
vpbroadcastq (%rax), %ymm5
movq 8(%rax), %rcx
movq glob_data + 6208(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movq 16(%rax), %rcx
movq glob_data + 6216(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movq 24(%rax), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, 96(%rsp,%rdx,8)
movb 32(%rax), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, 96(%rsp,%rdx)
movb 33(%rax), %al
incq %rdx
movb %al, 96(%rsp,%rdx)
incq %rdx
movb $31, 96(%rsp,%rdx)
movq glob_data + 6360(%rip), %rax
shlq $3, %rax
movq $167, %rcx
andq $7, %rcx
addq %rcx, %rax
movb $-128, 96(%rsp,%rax)
vmovdqu 128(%rsp), %ymm0
vmovdqu 160(%rsp), %ymm1
vmovdqu 192(%rsp), %ymm2
vmovdqu 224(%rsp), %ymm6
vmovdqu 256(%rsp), %ymm3
vmovdqu 288(%rsp), %ymm4
leaq 320(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$58:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$58
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 488(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$57:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$57
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 656(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$56:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm3, %ymm7
vpxor %ymm4, %ymm6, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm5, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm5, %ymm5
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%rsi), %ymm6, %ymm7
vpsrlvq 96(%rdi), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm6
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm4, %ymm4
vpermq $-115, %ymm1, %ymm6
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm4, %ymm1
vpsrlvq 160(%rdi), %ymm4, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm3, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm6, %ymm4
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm3, %ymm3
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm3, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm4
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm6, %ymm12
vpxor %ymm6, %ymm1, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm5, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm3, %ymm2
vpermq $-115, %ymm4, %ymm3
vpermq $114, %ymm12, %ymm4
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm0, %ymm6
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rcx,%rdx), %ymm5, %ymm5
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$56
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
vmovdqu %ymm5, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm6, 224(%rsp)
vmovdqu %ymm3, 256(%rsp)
vmovdqu %ymm4, 288(%rsp)
leaq 12384(%rsp), %rbx
leaq 320(%rsp), %rbp
leaq L__crypto_kem_keypair_derand_jazz$55(%rip), %r11
jmp L_rej_uniform_avx$1
L__crypto_kem_keypair_derand_jazz$55:
cmpq $255, %r13
setbe %al
vmovdqu 96(%rsp), %ymm6
vmovdqu 128(%rsp), %ymm0
vmovdqu 160(%rsp), %ymm1
vmovdqu 192(%rsp), %ymm2
vmovdqu 224(%rsp), %ymm3
vmovdqu 256(%rsp), %ymm4
vmovdqu 288(%rsp), %ymm5
jmp L__crypto_kem_keypair_derand_jazz$47
L__crypto_kem_keypair_derand_jazz$48:
leaq 320(%rsp), %rax
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L__crypto_kem_keypair_derand_jazz$54:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L__crypto_kem_keypair_derand_jazz$54
vmovdqu %ymm6, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
vmovdqu %ymm3, 224(%rsp)
vmovdqu %ymm4, 256(%rsp)
vmovdqu %ymm5, 288(%rsp)
movq glob_data + 6200(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
movq glob_data + 6328(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 128(%rax)
movq glob_data + 6336(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 136(%rax)
movq glob_data + 6344(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 144(%rax)
movq glob_data + 6352(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 152(%rax)
movq glob_data + 6360(%rip), %rcx
movq 96(%rsp,%rcx,8), %rcx
movq %rcx, 160(%rax)
leaq 12384(%rsp), %rax
leaq 320(%rsp), %rcx
movq $0, %rdx
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
jmp L__crypto_kem_keypair_derand_jazz$49
L__crypto_kem_keypair_derand_jazz$50:
movzbw (%rcx,%rdx), %si
incq %rdx
movzbw (%rcx,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw (%rcx,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L__crypto_kem_keypair_derand_jazz$53
movw %si, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$53:
cmpq $256, %r13
jnb L__crypto_kem_keypair_derand_jazz$51
cmpw $3329, %r8w
jnb L__crypto_kem_keypair_derand_jazz$51
movw %r8w, (%rax,%r13,2)
incq %r13
L__crypto_kem_keypair_derand_jazz$52:
L__crypto_kem_keypair_derand_jazz$51:
cmpq $255, %r13
setbe %sil
cmpq $165, %rdx
setbe %dil
testb %dil, %sil
L__crypto_kem_keypair_derand_jazz$49:
jne L__crypto_kem_keypair_derand_jazz$50
cmpq $255, %r13
setbe %al
L__crypto_kem_keypair_derand_jazz$47:
cmpb $0, %al
jne L__crypto_kem_keypair_derand_jazz$48
leaq 8288(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$46(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$46:
leaq 8800(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$45(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$45:
leaq 9312(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$44(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$44:
leaq 9824(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$43(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$43:
leaq 10336(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$42(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$42:
leaq 10848(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$41(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$41:
leaq 11360(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$40(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$40:
leaq 11872(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$39(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$39:
leaq 12384(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$38(%rip), %rcx
jmp L_nttunpack$1
L__crypto_kem_keypair_derand_jazz$38:
movb $0, %cl
leaq 3680(%rsp), %rax
leaq 4192(%rsp), %rdi
leaq 4704(%rsp), %r8
leaq 5216(%rsp), %r9
leaq 32(%rsp), %r10
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$37(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_keypair_derand_jazz$37:
leaq 1472(%rsp), %rsp
movb $4, %cl
leaq 5728(%rsp), %rax
leaq 6240(%rsp), %rdi
leaq 6752(%rsp), %r8
leaq 7264(%rsp), %r9
leaq 32(%rsp), %r10
leaq -1472(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$36(%rip), %rdx
movq %rdx, 1464(%rsp)
jmp L_poly_getnoise_eta1_4x$1
L__crypto_kem_keypair_derand_jazz$36:
leaq 1472(%rsp), %rsp
leaq 3680(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$35(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$35:
leaq 4192(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$34(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$34:
leaq 4704(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$33(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$33:
leaq 5216(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$32(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$32:
leaq 5728(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$31(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$31:
leaq 6240(%rsp), %rcx
leaq L__crypto_kem_keypair_derand_jazz$30(%rip), %rdi
jmp L_poly_ntt$1
L__crypto_kem_keypair_derand_jazz$30:
leaq 6752(%rsp), %rcx
leaq 8288(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$29(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$29:
leaq 2368(%rsp), %rcx
leaq 8800(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$28(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$28:
leaq 6752(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$27(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$27:
leaq 2368(%rsp), %rcx
leaq 9312(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$26(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$26:
leaq 6752(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$25(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$25:
leaq 6752(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$24(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$24:
leaq 7264(%rsp), %rcx
leaq 9824(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$23(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$23:
leaq 2368(%rsp), %rcx
leaq 10336(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$22(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$22:
leaq 7264(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$21(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$21:
leaq 2368(%rsp), %rcx
leaq 10848(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$20(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$20:
leaq 7264(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$19(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$19:
leaq 7264(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$18(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$18:
leaq 7776(%rsp), %rcx
leaq 11360(%rsp), %rsi
leaq 3680(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$17(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$17:
leaq 2368(%rsp), %rcx
leaq 11872(%rsp), %rsi
leaq 4192(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$16(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$16:
leaq 7776(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$15(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$15:
leaq 2368(%rsp), %rcx
leaq 12384(%rsp), %rsi
leaq 4704(%rsp), %rdi
leaq L__crypto_kem_keypair_derand_jazz$14(%rip), %r8
jmp L_poly_basemul$1
L__crypto_kem_keypair_derand_jazz$14:
leaq 7776(%rsp), %rcx
leaq 2368(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$13(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$13:
leaq 7776(%rsp), %rax
leaq L__crypto_kem_keypair_derand_jazz$12(%rip), %rdx
jmp L_poly_frommont$1
L__crypto_kem_keypair_derand_jazz$12:
leaq 6752(%rsp), %rcx
leaq 5216(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$11(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$11:
leaq 7264(%rsp), %rcx
leaq 5728(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$10(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$10:
leaq 7776(%rsp), %rcx
leaq 6240(%rsp), %rsi
leaq L__crypto_kem_keypair_derand_jazz$9(%rip), %rdi
jmp L_poly_add2$1
L__crypto_kem_keypair_derand_jazz$9:
leaq 6752(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 7264(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
leaq 7776(%rsp), %rax
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu (%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, (%rax)
vmovdqu 32(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vmovdqu 64(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vmovdqu 96(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vmovdqu 128(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 160(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 160(%rax)
vmovdqu 192(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 192(%rax)
vmovdqu 224(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 256(%rax)
vmovdqu 288(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 320(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 320(%rax)
vmovdqu 352(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 352(%rax)
vmovdqu 384(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 384(%rax)
vmovdqu 416(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 416(%rax)
vmovdqu 448(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 480(%rax), %ymm2
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm0, 480(%rax)
movq 12920(%rsp), %rax
movq 12928(%rsp), %rcx
leaq 3680(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$8(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$8:
addq $384, %rcx
leaq 4192(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$7(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$7:
addq $384, %rcx
leaq 4704(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$6(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$6:
movq %rax, %rcx
leaq 6752(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$5(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$5:
addq $384, %rcx
leaq 7264(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$4(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$4:
addq $384, %rcx
leaq 7776(%rsp), %rdx
leaq L__crypto_kem_keypair_derand_jazz$3(%rip), %rdi
jmp L_poly_tobytes$1
L__crypto_kem_keypair_derand_jazz$3:
addq $1152, %rax
movq (%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 8(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 16(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 24(%rsp), %rcx
movq %rcx, (%rax)
movq 12912(%rsp), %rax
addq $1152, %rax
movq 12904(%rsp), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 32(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 40(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 48(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 56(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 64(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 72(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 80(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 88(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 96(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 176(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 184(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 192(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 200(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 208(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 216(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 224(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 232(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 240(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 248(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 256(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 264(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 272(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 280(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 288(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 296(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 304(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 312(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 320(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 328(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 336(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 344(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 352(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 360(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 368(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 376(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 384(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 392(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 400(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 408(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 416(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 424(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 432(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 440(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 448(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 456(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 464(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 472(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 480(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 488(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 496(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 504(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 512(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 520(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 528(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 536(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 544(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 552(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 560(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 568(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 576(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 584(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 592(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 600(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 608(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 616(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 624(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 632(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 640(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 648(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 656(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 664(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 672(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 680(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 688(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 696(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 704(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 712(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 720(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 728(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 736(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 744(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 752(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 760(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 768(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 776(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 784(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 792(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 800(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 808(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 816(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 824(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 832(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 840(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 848(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 856(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 864(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 872(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 880(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 888(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 896(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 904(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 912(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 920(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 928(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 936(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 944(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 952(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 960(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 968(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 976(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 984(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 992(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1000(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1008(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1016(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1024(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1032(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1040(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1048(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1056(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1064(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1072(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1080(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1088(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1096(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1176(%rcx), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq %rax, 12912(%rsp)
movq 12904(%rsp), %r8
movq $1184, %rdi
movq %rsp, %rax
leaq -256(%rsp), %rsp
leaq L__crypto_kem_keypair_derand_jazz$2(%rip), %rcx
movq %rcx, 224(%rsp)
jmp L_sha3_256$1
L__crypto_kem_keypair_derand_jazz$2:
leaq 256(%rsp), %rsp
movq 12912(%rsp), %rax
movq 12896(%rsp), %rcx
movq %rsp, %rdx
movb (%rdx), %sil
movb %sil, (%rax)
movb 1(%rdx), %sil
movb %sil, 1(%rax)
movb 2(%rdx), %sil
movb %sil, 2(%rax)
movb 3(%rdx), %sil
movb %sil, 3(%rax)
movb 4(%rdx), %sil
movb %sil, 4(%rax)
movb 5(%rdx), %sil
movb %sil, 5(%rax)
movb 6(%rdx), %sil
movb %sil, 6(%rax)
movb 7(%rdx), %sil
movb %sil, 7(%rax)
movb 8(%rdx), %sil
movb %sil, 8(%rax)
movb 9(%rdx), %sil
movb %sil, 9(%rax)
movb 10(%rdx), %sil
movb %sil, 10(%rax)
movb 11(%rdx), %sil
movb %sil, 11(%rax)
movb 12(%rdx), %sil
movb %sil, 12(%rax)
movb 13(%rdx), %sil
movb %sil, 13(%rax)
movb 14(%rdx), %sil
movb %sil, 14(%rax)
movb 15(%rdx), %sil
movb %sil, 15(%rax)
movb 16(%rdx), %sil
movb %sil, 16(%rax)
movb 17(%rdx), %sil
movb %sil, 17(%rax)
movb 18(%rdx), %sil
movb %sil, 18(%rax)
movb 19(%rdx), %sil
movb %sil, 19(%rax)
movb 20(%rdx), %sil
movb %sil, 20(%rax)
movb 21(%rdx), %sil
movb %sil, 21(%rax)
movb 22(%rdx), %sil
movb %sil, 22(%rax)
movb 23(%rdx), %sil
movb %sil, 23(%rax)
movb 24(%rdx), %sil
movb %sil, 24(%rax)
movb 25(%rdx), %sil
movb %sil, 25(%rax)
movb 26(%rdx), %sil
movb %sil, 26(%rax)
movb 27(%rdx), %sil
movb %sil, 27(%rax)
movb 28(%rdx), %sil
movb %sil, 28(%rax)
movb 29(%rdx), %sil
movb %sil, 29(%rax)
movb 30(%rdx), %sil
movb %sil, 30(%rax)
movb 31(%rdx), %dl
movb %dl, 31(%rax)
addq $32, %rax
leaq 32(%rcx), %rcx
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
jmp *13000(%rsp)
L_rej_uniform_avx$1:
leaq glob_data + 4128(%rip), %r10
vmovdqu glob_data + 448(%rip), %ymm0
movq $0, %r13
movq $0, %r12
vpbroadcastb glob_data + 6430(%rip), %ymm1
vpbroadcastw glob_data + 6416(%rip), %ymm2
vmovdqu glob_data + 0(%rip), %ymm3
cmpq $224, %r13
setbe %al
cmpq $448, %r12
setbe %cl
testb %cl, %al
jmp L_rej_uniform_avx$9
L_rej_uniform_avx$10:
vpermq $-108, (%rbp,%r12), %ymm4
vpermq $-108, 24(%rbp,%r12), %ymm5
vpshufb %ymm3, %ymm4, %ymm4
vpshufb %ymm3, %ymm5, %ymm5
vpsrlw $4, %ymm4, %ymm6
vpsrlw $4, %ymm5, %ymm7
vpblendw $-86, %ymm6, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm5, %ymm5
vpand %ymm2, %ymm4, %ymm4
vpand %ymm2, %ymm5, %ymm5
vpcmpgtw %ymm4, %ymm0, %ymm6
vpcmpgtw %ymm5, %ymm0, %ymm7
vpacksswb %ymm7, %ymm6, %ymm6
vpmovmskb %ymm6, %rax
movq %rax, %rcx
andq $255, %rcx
vmovq (%r10,%rcx,8), %xmm6
movq %rax, %rdx
shrq $16, %rdx
andq $255, %rdx
vmovq (%r10,%rdx,8), %xmm7
movq %rax, %rsi
shrq $8, %rsi
andq $255, %rsi
vmovq (%r10,%rsi,8), %xmm8
shrq $24, %rax
andq $255, %rax
vmovq (%r10,%rax,8), %xmm9
vinserti128 $1, %xmm7, %ymm6, %ymm6
popcnt %rcx, %rcx
popcnt %rdx, %rdx
addq %r13, %rcx
vinserti128 $1, %xmm9, %ymm8, %ymm7
addq %rcx, %rdx
popcnt %rsi, %rsi
addq %rdx, %rsi
popcnt %rax, %rax
addq %rsi, %rax
vpaddb %ymm1, %ymm6, %ymm8
vpunpcklbw %ymm8, %ymm6, %ymm6
vpaddb %ymm1, %ymm7, %ymm8
vpunpcklbw %ymm8, %ymm7, %ymm7
vpshufb %ymm6, %ymm4, %ymm4
vpshufb %ymm7, %ymm5, %ymm5
vmovdqu %xmm4, (%rbx,%r13,2)
vextracti128 $1, %ymm4, (%rbx,%rcx,2)
vmovdqu %xmm5, (%rbx,%rdx,2)
vextracti128 $1, %ymm5, (%rbx,%rsi,2)
movq %rax, %r13
cmpq $224, %r13
setbe %al
addq $48, %r12
cmpq $448, %r12
setbe %cl
testb %cl, %al
L_rej_uniform_avx$9:
jne L_rej_uniform_avx$10
cmpq $248, %r13
setbe %al
cmpq $488, %r12
setbe %cl
testb %cl, %al
movq $21845, %rax
jmp L_rej_uniform_avx$7
L_rej_uniform_avx$8:
vmovdqu (%rbp,%r12), %xmm4
vpshufb %xmm3, %xmm4, %xmm4
vpsrlw $4, %xmm4, %xmm5
vpblendw $-86, %xmm5, %xmm4, %xmm4
vpand %xmm2, %xmm4, %xmm4
vpcmpgtw %xmm4, %xmm0, %xmm5
vpmovmskb %xmm5, %rcx
pext %rax, %rcx, %rcx
vmovq (%r10,%rcx,8), %xmm5
popcnt %rcx, %rcx
vpaddb %xmm1, %xmm5, %xmm6
vpunpcklbw %xmm6, %xmm5, %xmm5
vpshufb %xmm5, %xmm4, %xmm4
vmovdqu %xmm4, (%rbx,%r13,2)
addq %rcx, %r13
addq $12, %r12
cmpq $248, %r13
setbe %cl
cmpq $488, %r12
setbe %dl
testb %dl, %cl
L_rej_uniform_avx$7:
jne L_rej_uniform_avx$8
cmpq $255, %r13
setbe %al
cmpq $501, %r12
setbe %cl
testb %cl, %al
jmp L_rej_uniform_avx$2
L_rej_uniform_avx$3:
movzbw (%rbp,%r12), %ax
incq %r12
movzbw (%rbp,%r12), %dx
incq %r12
movw %dx, %cx
shlw $8, %dx
orw %dx, %ax
andw $4095, %ax
shrw $4, %cx
movzbw (%rbp,%r12), %dx
incq %r12
shlw $4, %dx
orw %dx, %cx
cmpw $3329, %ax
jnb L_rej_uniform_avx$6
movw %ax, (%rbx,%r13,2)
incq %r13
L_rej_uniform_avx$6:
cmpw $3329, %cx
jnb L_rej_uniform_avx$4
cmpq $256, %r13
jnb L_rej_uniform_avx$4
movw %cx, (%rbx,%r13,2)
incq %r13
L_rej_uniform_avx$5:
L_rej_uniform_avx$4:
cmpq $255, %r13
setbe %al
cmpq $501, %r12
setbe %cl
testb %cl, %al
L_rej_uniform_avx$2:
jne L_rej_uniform_avx$3
jmp *%r11
L_poly_tomsg_1$1:
leaq L_poly_tomsg_1$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_tomsg_1$2:
leaq glob_data + 224(%rip), %rsi
vmovdqu (%rsi), %ymm0
leaq glob_data + 192(%rip), %rsi
vmovdqu (%rsi), %ymm1
vmovdqu (%rcx), %ymm2
vmovdqu 32(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, (%rax)
vmovdqu 64(%rcx), %ymm2
vmovdqu 96(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 4(%rax)
vmovdqu 128(%rcx), %ymm2
vmovdqu 160(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 8(%rax)
vmovdqu 192(%rcx), %ymm2
vmovdqu 224(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 12(%rax)
vmovdqu 256(%rcx), %ymm2
vmovdqu 288(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 16(%rax)
vmovdqu 320(%rcx), %ymm2
vmovdqu 352(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 20(%rax)
vmovdqu 384(%rcx), %ymm2
vmovdqu 416(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %esi
movl %esi, 24(%rax)
vmovdqu 448(%rcx), %ymm2
vmovdqu 480(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm0
vpsraw $15, %ymm2, %ymm3
vpsraw $15, %ymm0, %ymm4
vpxor %ymm3, %ymm2, %ymm2
vpxor %ymm4, %ymm0, %ymm0
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm0, %ymm0
vpacksswb %ymm0, %ymm2, %ymm0
vpermq $-40, %ymm0, %ymm0
vpmovmskb %ymm0, %ecx
movl %ecx, 28(%rax)
jmp *%rdi
L_poly_tomsg$1:
leaq L_poly_tomsg$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_tomsg$2:
leaq glob_data + 224(%rip), %rax
vmovdqu (%rax), %ymm0
leaq glob_data + 192(%rip), %rax
vmovdqu (%rax), %ymm1
vmovdqu (%rcx), %ymm2
vmovdqu 32(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, (%rdx)
vmovdqu 64(%rcx), %ymm2
vmovdqu 96(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 4(%rdx)
vmovdqu 128(%rcx), %ymm2
vmovdqu 160(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 8(%rdx)
vmovdqu 192(%rcx), %ymm2
vmovdqu 224(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 12(%rdx)
vmovdqu 256(%rcx), %ymm2
vmovdqu 288(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 16(%rdx)
vmovdqu 320(%rcx), %ymm2
vmovdqu 352(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 20(%rdx)
vmovdqu 384(%rcx), %ymm2
vmovdqu 416(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm3
vpsraw $15, %ymm2, %ymm4
vpsraw $15, %ymm3, %ymm5
vpxor %ymm4, %ymm2, %ymm2
vpxor %ymm5, %ymm3, %ymm3
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm3, %ymm3
vpacksswb %ymm3, %ymm2, %ymm2
vpermq $-40, %ymm2, %ymm2
vpmovmskb %ymm2, %eax
movl %eax, 24(%rdx)
vmovdqu 448(%rcx), %ymm2
vmovdqu 480(%rcx), %ymm3
vpsubw %ymm2, %ymm0, %ymm2
vpsubw %ymm3, %ymm0, %ymm0
vpsraw $15, %ymm2, %ymm3
vpsraw $15, %ymm0, %ymm4
vpxor %ymm3, %ymm2, %ymm2
vpxor %ymm4, %ymm0, %ymm0
vpsubw %ymm1, %ymm2, %ymm2
vpsubw %ymm1, %ymm0, %ymm0
vpacksswb %ymm0, %ymm2, %ymm0
vpermq $-40, %ymm0, %ymm0
vpmovmskb %ymm0, %eax
movl %eax, 28(%rdx)
jmp *%rsi
L_poly_tobytes$1:
leaq glob_data + 448(%rip), %rsi
vmovdqu (%rsi), %ymm0
vmovdqu (%rdx), %ymm7
vmovdqu 32(%rdx), %ymm8
vmovdqu 64(%rdx), %ymm1
vmovdqu 96(%rdx), %ymm2
vmovdqu 128(%rdx), %ymm3
vmovdqu 160(%rdx), %ymm4
vmovdqu 192(%rdx), %ymm5
vmovdqu 224(%rdx), %ymm6
vpsubw %ymm0, %ymm7, %ymm7
vpsraw $15, %ymm7, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm0, %ymm8, %ymm8
vpsraw $15, %ymm8, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm1, %ymm9, %ymm1
vpsubw %ymm0, %ymm2, %ymm2
vpsraw $15, %ymm2, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm2, %ymm9, %ymm2
vpsubw %ymm0, %ymm3, %ymm3
vpsraw $15, %ymm3, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm3, %ymm9, %ymm3
vpsubw %ymm0, %ymm4, %ymm4
vpsraw $15, %ymm4, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm4, %ymm9, %ymm4
vpsubw %ymm0, %ymm5, %ymm5
vpsraw $15, %ymm5, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm0, %ymm6, %ymm6
vpsraw $15, %ymm6, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm6, %ymm9, %ymm6
vpsllw $12, %ymm8, %ymm9
vpor %ymm7, %ymm9, %ymm7
vpsrlw $4, %ymm8, %ymm8
vpsllw $8, %ymm1, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpsrlw $8, %ymm1, %ymm1
vpsllw $4, %ymm2, %ymm2
vpor %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm4, %ymm2
vpor %ymm3, %ymm2, %ymm2
vpsrlw $4, %ymm4, %ymm3
vpsllw $8, %ymm5, %ymm4
vpor %ymm4, %ymm3, %ymm3
vpsrlw $8, %ymm5, %ymm4
vpsllw $4, %ymm6, %ymm5
vpor %ymm5, %ymm4, %ymm4
vpslld $16, %ymm8, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm7, %ymm6
vpblendw $-86, %ymm8, %ymm6, %ymm6
vpslld $16, %ymm2, %ymm7
vpblendw $-86, %ymm7, %ymm1, %ymm7
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm1
vpslld $16, %ymm4, %ymm2
vpblendw $-86, %ymm2, %ymm3, %ymm8
vpsrld $16, %ymm3, %ymm2
vpblendw $-86, %ymm4, %ymm2, %ymm2
vmovsldup %ymm7, %ymm3
vpblendd $-86, %ymm3, %ymm5, %ymm3
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm7, %ymm4, %ymm4
vmovsldup %ymm6, %ymm5
vpblendd $-86, %ymm5, %ymm8, %ymm5
vpsrlq $32, %ymm8, %ymm7
vpblendd $-86, %ymm6, %ymm7, %ymm6
vmovsldup %ymm2, %ymm7
vpblendd $-86, %ymm7, %ymm1, %ymm7
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm2, %ymm1, %ymm1
vpunpcklqdq %ymm5, %ymm3, %ymm2
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm4, %ymm7, %ymm5
vpunpckhqdq %ymm4, %ymm7, %ymm4
vpunpcklqdq %ymm1, %ymm6, %ymm7
vpunpckhqdq %ymm1, %ymm6, %ymm1
vperm2i128 $32, %ymm5, %ymm2, %ymm6
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vperm2i128 $32, %ymm3, %ymm7, %ymm5
vperm2i128 $49, %ymm3, %ymm7, %ymm3
vperm2i128 $32, %ymm1, %ymm4, %ymm7
vperm2i128 $49, %ymm1, %ymm4, %ymm1
vmovdqu %ymm6, (%rcx)
vmovdqu %ymm5, 32(%rcx)
vmovdqu %ymm7, 64(%rcx)
vmovdqu %ymm2, 96(%rcx)
vmovdqu %ymm3, 128(%rcx)
vmovdqu %ymm1, 160(%rcx)
vmovdqu 256(%rdx), %ymm7
vmovdqu 288(%rdx), %ymm8
vmovdqu 320(%rdx), %ymm1
vmovdqu 352(%rdx), %ymm2
vmovdqu 384(%rdx), %ymm3
vmovdqu 416(%rdx), %ymm4
vmovdqu 448(%rdx), %ymm5
vmovdqu 480(%rdx), %ymm6
vpsubw %ymm0, %ymm7, %ymm7
vpsraw $15, %ymm7, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm0, %ymm8, %ymm8
vpsraw $15, %ymm8, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm1, %ymm9, %ymm1
vpsubw %ymm0, %ymm2, %ymm2
vpsraw $15, %ymm2, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm2, %ymm9, %ymm2
vpsubw %ymm0, %ymm3, %ymm3
vpsraw $15, %ymm3, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm3, %ymm9, %ymm3
vpsubw %ymm0, %ymm4, %ymm4
vpsraw $15, %ymm4, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm4, %ymm9, %ymm4
vpsubw %ymm0, %ymm5, %ymm5
vpsraw $15, %ymm5, %ymm9
vpand %ymm0, %ymm9, %ymm9
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm0, %ymm6, %ymm6
vpsraw $15, %ymm6, %ymm9
vpand %ymm0, %ymm9, %ymm0
vpaddw %ymm6, %ymm0, %ymm0
vpsllw $12, %ymm8, %ymm6
vpor %ymm7, %ymm6, %ymm6
vpsrlw $4, %ymm8, %ymm7
vpsllw $8, %ymm1, %ymm8
vpor %ymm8, %ymm7, %ymm7
vpsrlw $8, %ymm1, %ymm1
vpsllw $4, %ymm2, %ymm2
vpor %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm4, %ymm2
vpor %ymm3, %ymm2, %ymm2
vpsrlw $4, %ymm4, %ymm3
vpsllw $8, %ymm5, %ymm4
vpor %ymm4, %ymm3, %ymm3
vpsrlw $8, %ymm5, %ymm4
vpsllw $4, %ymm0, %ymm0
vpor %ymm0, %ymm4, %ymm0
vpslld $16, %ymm7, %ymm4
vpblendw $-86, %ymm4, %ymm6, %ymm4
vpsrld $16, %ymm6, %ymm5
vpblendw $-86, %ymm7, %ymm5, %ymm5
vpslld $16, %ymm2, %ymm6
vpblendw $-86, %ymm6, %ymm1, %ymm6
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm1
vpslld $16, %ymm0, %ymm2
vpblendw $-86, %ymm2, %ymm3, %ymm7
vpsrld $16, %ymm3, %ymm2
vpblendw $-86, %ymm0, %ymm2, %ymm0
vmovsldup %ymm6, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm6, %ymm3, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm7, %ymm4
vpsrlq $32, %ymm7, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm0, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm4, %ymm2, %ymm1
vpunpckhqdq %ymm4, %ymm2, %ymm2
vpunpcklqdq %ymm3, %ymm6, %ymm4
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm0, %ymm5, %ymm6
vpunpckhqdq %ymm0, %ymm5, %ymm0
vperm2i128 $32, %ymm4, %ymm1, %ymm5
vperm2i128 $49, %ymm4, %ymm1, %ymm1
vperm2i128 $32, %ymm2, %ymm6, %ymm4
vperm2i128 $49, %ymm2, %ymm6, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm6
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm5, 192(%rcx)
vmovdqu %ymm4, 224(%rcx)
vmovdqu %ymm6, 256(%rcx)
vmovdqu %ymm1, 288(%rcx)
vmovdqu %ymm2, 320(%rcx)
vmovdqu %ymm0, 352(%rcx)
jmp *%rdi
L_poly_sub$1:
vmovdqu (%rsi), %ymm0
vmovdqu (%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vmovdqu 32(%rsi), %ymm0
vmovdqu 32(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rcx)
vmovdqu 64(%rsi), %ymm0
vmovdqu 64(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rcx)
vmovdqu 96(%rsi), %ymm0
vmovdqu 96(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rcx)
vmovdqu 128(%rsi), %ymm0
vmovdqu 128(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rcx)
vmovdqu 160(%rsi), %ymm0
vmovdqu 160(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rcx)
vmovdqu 192(%rsi), %ymm0
vmovdqu 192(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rcx)
vmovdqu 224(%rsi), %ymm0
vmovdqu 224(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rcx)
vmovdqu 256(%rsi), %ymm0
vmovdqu 256(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rcx)
vmovdqu 288(%rsi), %ymm0
vmovdqu 288(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rcx)
vmovdqu 320(%rsi), %ymm0
vmovdqu 320(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rcx)
vmovdqu 352(%rsi), %ymm0
vmovdqu 352(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rcx)
vmovdqu 384(%rsi), %ymm0
vmovdqu 384(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rcx)
vmovdqu 416(%rsi), %ymm0
vmovdqu 416(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rcx)
vmovdqu 448(%rsi), %ymm0
vmovdqu 448(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rcx)
vmovdqu 480(%rsi), %ymm0
vmovdqu 480(%rdi), %ymm1
vpsubw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_ntt$1:
leaq glob_data + 1280(%rip), %rsi
vmovdqu glob_data + 448(%rip), %ymm0
vpbroadcastd (%rsi), %ymm1
vpbroadcastd 4(%rsi), %ymm2
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm14
vmovdqu 64(%rcx), %ymm4
vmovdqu 96(%rcx), %ymm5
vmovdqu 256(%rcx), %ymm6
vmovdqu 288(%rcx), %ymm7
vmovdqu 320(%rcx), %ymm12
vmovdqu 352(%rcx), %ymm8
vpmullw %ymm6, %ymm1, %ymm9
vpmulhw %ymm6, %ymm2, %ymm6
vpmullw %ymm7, %ymm1, %ymm10
vpmulhw %ymm7, %ymm2, %ymm15
vpmullw %ymm12, %ymm1, %ymm11
vpmulhw %ymm12, %ymm2, %ymm7
vpmullw %ymm8, %ymm1, %ymm12
vpmulhw %ymm8, %ymm2, %ymm8
vpmulhw %ymm0, %ymm9, %ymm9
vpmulhw %ymm0, %ymm10, %ymm10
vpmulhw %ymm0, %ymm11, %ymm11
vpmulhw %ymm0, %ymm12, %ymm12
vpsubw %ymm15, %ymm14, %ymm13
vpaddw %ymm14, %ymm15, %ymm14
vpsubw %ymm6, %ymm3, %ymm15
vpaddw %ymm3, %ymm6, %ymm3
vpsubw %ymm8, %ymm5, %ymm6
vpaddw %ymm5, %ymm8, %ymm5
vpsubw %ymm7, %ymm4, %ymm8
vpaddw %ymm4, %ymm7, %ymm4
vpaddw %ymm15, %ymm9, %ymm7
vpsubw %ymm9, %ymm3, %ymm3
vpaddw %ymm13, %ymm10, %ymm9
vpsubw %ymm10, %ymm14, %ymm10
vpaddw %ymm8, %ymm11, %ymm8
vpsubw %ymm11, %ymm4, %ymm4
vpaddw %ymm6, %ymm12, %ymm6
vpsubw %ymm12, %ymm5, %ymm5
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm10, 32(%rcx)
vmovdqu %ymm4, 64(%rcx)
vmovdqu %ymm5, 96(%rcx)
vmovdqu %ymm7, 256(%rcx)
vmovdqu %ymm9, 288(%rcx)
vmovdqu %ymm8, 320(%rcx)
vmovdqu %ymm6, 352(%rcx)
vmovdqu 128(%rcx), %ymm3
vmovdqu 160(%rcx), %ymm12
vmovdqu 192(%rcx), %ymm4
vmovdqu 224(%rcx), %ymm5
vmovdqu 384(%rcx), %ymm6
vmovdqu 416(%rcx), %ymm7
vmovdqu 448(%rcx), %ymm10
vmovdqu 480(%rcx), %ymm11
vpmullw %ymm6, %ymm1, %ymm14
vpmulhw %ymm6, %ymm2, %ymm6
vpmullw %ymm7, %ymm1, %ymm8
vpmulhw %ymm7, %ymm2, %ymm13
vpmullw %ymm10, %ymm1, %ymm9
vpmulhw %ymm10, %ymm2, %ymm7
vpmullw %ymm11, %ymm1, %ymm10
vpmulhw %ymm11, %ymm2, %ymm1
vpmulhw %ymm0, %ymm14, %ymm2
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhw %ymm0, %ymm9, %ymm9
vpmulhw %ymm0, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm6, %ymm3, %ymm13
vpaddw %ymm3, %ymm6, %ymm3
vpsubw %ymm1, %ymm5, %ymm6
vpaddw %ymm5, %ymm1, %ymm1
vpsubw %ymm7, %ymm4, %ymm5
vpaddw %ymm4, %ymm7, %ymm4
vpaddw %ymm13, %ymm2, %ymm7
vpsubw %ymm2, %ymm3, %ymm2
vpaddw %ymm11, %ymm8, %ymm3
vpsubw %ymm8, %ymm12, %ymm8
vpaddw %ymm5, %ymm9, %ymm5
vpsubw %ymm9, %ymm4, %ymm9
vpaddw %ymm6, %ymm10, %ymm4
vpsubw %ymm10, %ymm1, %ymm14
vmovdqu %ymm7, 384(%rcx)
vmovdqu %ymm3, 416(%rcx)
vmovdqu %ymm5, 448(%rcx)
vmovdqu %ymm4, 480(%rcx)
vpbroadcastd 8(%rsi), %ymm1
vpbroadcastd 12(%rsi), %ymm4
vmovdqu %ymm8, %ymm10
vmovdqu %ymm9, %ymm3
vmovdqu (%rcx), %ymm6
vmovdqu 32(%rcx), %ymm5
vmovdqu 64(%rcx), %ymm9
vmovdqu 96(%rcx), %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm4, %ymm8
vpmullw %ymm10, %ymm1, %ymm13
vpmulhw %ymm10, %ymm4, %ymm12
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm4, %ymm10
vpmullw %ymm14, %ymm1, %ymm3
vpmulhw %ymm14, %ymm4, %ymm14
vpmulhw %ymm0, %ymm11, %ymm11
vpmulhw %ymm0, %ymm13, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm12, %ymm5, %ymm4
vpaddw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm6, %ymm12
vpaddw %ymm6, %ymm8, %ymm13
vpsubw %ymm14, %ymm7, %ymm6
vpaddw %ymm7, %ymm14, %ymm7
vpsubw %ymm10, %ymm9, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm12, %ymm11, %ymm10
vpsubw %ymm11, %ymm13, %ymm12
vpaddw %ymm4, %ymm1, %ymm4
vpsubw %ymm1, %ymm5, %ymm5
vpaddw %ymm8, %ymm2, %ymm8
vpsubw %ymm2, %ymm9, %ymm2
vpaddw %ymm6, %ymm3, %ymm13
vpsubw %ymm3, %ymm7, %ymm7
vmovdqu 16(%rsi), %ymm3
vmovdqu 48(%rsi), %ymm6
vperm2i128 $32, %ymm10, %ymm12, %ymm11
vperm2i128 $49, %ymm10, %ymm12, %ymm9
vperm2i128 $32, %ymm4, %ymm5, %ymm1
vperm2i128 $49, %ymm4, %ymm5, %ymm12
vperm2i128 $32, %ymm8, %ymm2, %ymm5
vperm2i128 $49, %ymm8, %ymm2, %ymm8
vperm2i128 $32, %ymm13, %ymm7, %ymm2
vperm2i128 $49, %ymm13, %ymm7, %ymm13
vpmullw %ymm5, %ymm3, %ymm4
vpmulhw %ymm5, %ymm6, %ymm10
vpmullw %ymm8, %ymm3, %ymm14
vpmulhw %ymm8, %ymm6, %ymm8
vpmullw %ymm2, %ymm3, %ymm5
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm8, %ymm9, %ymm7
vpaddw %ymm9, %ymm8, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 80(%rsi), %ymm1
vmovdqu 112(%rsi), %ymm10
vpunpcklqdq %ymm2, %ymm9, %ymm5
vpunpckhqdq %ymm2, %ymm9, %ymm12
vpunpcklqdq %ymm3, %ymm4, %ymm8
vpunpckhqdq %ymm3, %ymm4, %ymm6
vpunpcklqdq %ymm7, %ymm13, %ymm2
vpunpckhqdq %ymm7, %ymm13, %ymm4
vpunpcklqdq %ymm11, %ymm14, %ymm3
vpunpckhqdq %ymm11, %ymm14, %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm10, %ymm13
vpmullw %ymm4, %ymm1, %ymm14
vpmulhw %ymm4, %ymm10, %ymm4
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm10, %ymm9
vpmullw %ymm7, %ymm1, %ymm3
vpmulhw %ymm7, %ymm10, %ymm7
vpmulhw %ymm0, %ymm11, %ymm10
vpmulhw %ymm0, %ymm14, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm4, %ymm12, %ymm11
vpaddw %ymm12, %ymm4, %ymm4
vpsubw %ymm13, %ymm5, %ymm12
vpaddw %ymm5, %ymm13, %ymm13
vpsubw %ymm7, %ymm6, %ymm5
vpaddw %ymm6, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpaddw %ymm12, %ymm10, %ymm9
vpsubw %ymm10, %ymm13, %ymm12
vpaddw %ymm11, %ymm1, %ymm10
vpsubw %ymm1, %ymm4, %ymm4
vpaddw %ymm7, %ymm2, %ymm7
vpsubw %ymm2, %ymm8, %ymm2
vpaddw %ymm5, %ymm3, %ymm13
vpsubw %ymm3, %ymm6, %ymm6
vmovdqu 144(%rsi), %ymm3
vmovdqu 176(%rsi), %ymm5
vmovsldup %ymm9, %ymm1
vpblendd $-86, %ymm1, %ymm12, %ymm11
vpsrlq $32, %ymm12, %ymm1
vpblendd $-86, %ymm9, %ymm1, %ymm8
vmovsldup %ymm10, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm1
vpsrlq $32, %ymm4, %ymm4
vpblendd $-86, %ymm10, %ymm4, %ymm12
vmovsldup %ymm7, %ymm4
vpblendd $-86, %ymm4, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm7, %ymm2, %ymm7
vmovsldup %ymm13, %ymm2
vpblendd $-86, %ymm2, %ymm6, %ymm2
vpsrlq $32, %ymm6, %ymm4
vpblendd $-86, %ymm13, %ymm4, %ymm13
vpmullw %ymm9, %ymm3, %ymm4
vpmulhw %ymm9, %ymm5, %ymm10
vpmullw %ymm7, %ymm3, %ymm14
vpmulhw %ymm7, %ymm5, %ymm9
vpmullw %ymm2, %ymm3, %ymm6
vpmulhw %ymm2, %ymm5, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm5, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm6, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 208(%rsi), %ymm5
vmovdqu 240(%rsi), %ymm6
vpslld $16, %ymm2, %ymm1
vpblendw $-86, %ymm1, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm8
vpslld $16, %ymm3, %ymm1
vpblendw $-86, %ymm1, %ymm4, %ymm1
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm12
vpslld $16, %ymm7, %ymm2
vpblendw $-86, %ymm2, %ymm13, %ymm4
vpsrld $16, %ymm13, %ymm2
vpblendw $-86, %ymm7, %ymm2, %ymm7
vpslld $16, %ymm11, %ymm2
vpblendw $-86, %ymm2, %ymm14, %ymm2
vpsrld $16, %ymm14, %ymm3
vpblendw $-86, %ymm11, %ymm3, %ymm13
vpmullw %ymm4, %ymm5, %ymm3
vpmulhw %ymm4, %ymm6, %ymm11
vpmullw %ymm7, %ymm5, %ymm4
vpmulhw %ymm7, %ymm6, %ymm9
vpmullw %ymm2, %ymm5, %ymm7
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm5, %ymm14
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm3, %ymm3
vpmulhw %ymm0, %ymm4, %ymm4
vpmulhw %ymm0, %ymm7, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm11, %ymm10, %ymm9
vpaddw %ymm10, %ymm11, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm3
vpaddw %ymm7, %ymm4, %ymm7
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm8
vpsubw %ymm5, %ymm1, %ymm1
vpaddw %ymm11, %ymm6, %ymm5
vpsubw %ymm6, %ymm12, %ymm10
vmovdqu 272(%rsi), %ymm9
vmovdqu 304(%rsi), %ymm13
vmovdqu 336(%rsi), %ymm11
vmovdqu 368(%rsi), %ymm6
vpmullw %ymm1, %ymm9, %ymm14
vpmulhw %ymm1, %ymm13, %ymm12
vpmullw %ymm10, %ymm9, %ymm9
vpmulhw %ymm10, %ymm13, %ymm13
vpmullw %ymm8, %ymm11, %ymm10
vpmulhw %ymm8, %ymm6, %ymm1
vpmullw %ymm5, %ymm11, %ymm11
vpmulhw %ymm5, %ymm6, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpmulhw %ymm0, %ymm9, %ymm8
vpmulhw %ymm0, %ymm10, %ymm9
vpmulhw %ymm0, %ymm11, %ymm10
vpsubw %ymm13, %ymm4, %ymm11
vpaddw %ymm4, %ymm13, %ymm4
vpsubw %ymm12, %ymm3, %ymm13
vpaddw %ymm3, %ymm12, %ymm3
vpsubw %ymm5, %ymm7, %ymm12
vpaddw %ymm7, %ymm5, %ymm5
vpsubw %ymm1, %ymm2, %ymm7
vpaddw %ymm2, %ymm1, %ymm1
vpaddw %ymm13, %ymm6, %ymm2
vpsubw %ymm6, %ymm3, %ymm3
vpaddw %ymm11, %ymm8, %ymm6
vpsubw %ymm8, %ymm4, %ymm4
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm9, %ymm1, %ymm8
vpaddw %ymm12, %ymm10, %ymm1
vpsubw %ymm10, %ymm5, %ymm5
vmovdqu glob_data + 384(%rip), %ymm9
vpmulhw %ymm9, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm3
vpmulhw %ymm9, %ymm4, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm4, %ymm4
vpmulhw %ymm9, %ymm8, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm8, %ymm8
vpmulhw %ymm9, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm5
vpmulhw %ymm9, %ymm2, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm2, %ymm2
vpmulhw %ymm9, %ymm6, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm6, %ymm6
vpmulhw %ymm9, %ymm7, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm7, %ymm7
vpmulhw %ymm9, %ymm1, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm1, %ymm1
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu %ymm2, 64(%rcx)
vmovdqu %ymm6, 96(%rcx)
vmovdqu %ymm8, 128(%rcx)
vmovdqu %ymm5, 160(%rcx)
vmovdqu %ymm7, 192(%rcx)
vmovdqu %ymm1, 224(%rcx)
vpbroadcastd 400(%rsi), %ymm5
vpbroadcastd 404(%rsi), %ymm8
vmovdqu 384(%rcx), %ymm1
vmovdqu 416(%rcx), %ymm2
vmovdqu 448(%rcx), %ymm10
vmovdqu 480(%rcx), %ymm9
vmovdqu 256(%rcx), %ymm3
vmovdqu 288(%rcx), %ymm7
vmovdqu 320(%rcx), %ymm6
vmovdqu 352(%rcx), %ymm4
vpmullw %ymm1, %ymm5, %ymm14
vpmulhw %ymm1, %ymm8, %ymm12
vpmullw %ymm2, %ymm5, %ymm1
vpmulhw %ymm2, %ymm8, %ymm11
vpmullw %ymm10, %ymm5, %ymm2
vpmulhw %ymm10, %ymm8, %ymm13
vpmullw %ymm9, %ymm5, %ymm10
vpmulhw %ymm9, %ymm8, %ymm5
vpmulhw %ymm0, %ymm14, %ymm8
vpmulhw %ymm0, %ymm1, %ymm9
vpmulhw %ymm0, %ymm2, %ymm1
vpmulhw %ymm0, %ymm10, %ymm2
vpsubw %ymm11, %ymm7, %ymm10
vpaddw %ymm7, %ymm11, %ymm11
vpsubw %ymm12, %ymm3, %ymm7
vpaddw %ymm3, %ymm12, %ymm12
vpsubw %ymm5, %ymm4, %ymm3
vpaddw %ymm4, %ymm5, %ymm4
vpsubw %ymm13, %ymm6, %ymm5
vpaddw %ymm6, %ymm13, %ymm6
vpaddw %ymm7, %ymm8, %ymm7
vpsubw %ymm8, %ymm12, %ymm12
vpaddw %ymm10, %ymm9, %ymm8
vpsubw %ymm9, %ymm11, %ymm9
vpaddw %ymm5, %ymm1, %ymm5
vpsubw %ymm1, %ymm6, %ymm6
vpaddw %ymm3, %ymm2, %ymm13
vpsubw %ymm2, %ymm4, %ymm2
vmovdqu 408(%rsi), %ymm3
vmovdqu 440(%rsi), %ymm4
vperm2i128 $32, %ymm7, %ymm12, %ymm10
vperm2i128 $49, %ymm7, %ymm12, %ymm11
vperm2i128 $32, %ymm8, %ymm9, %ymm1
vperm2i128 $49, %ymm8, %ymm9, %ymm12
vperm2i128 $32, %ymm5, %ymm6, %ymm8
vperm2i128 $49, %ymm5, %ymm6, %ymm5
vperm2i128 $32, %ymm13, %ymm2, %ymm6
vperm2i128 $49, %ymm13, %ymm2, %ymm13
vpmullw %ymm8, %ymm3, %ymm7
vpmulhw %ymm8, %ymm4, %ymm14
vpmullw %ymm5, %ymm3, %ymm9
vpmulhw %ymm5, %ymm4, %ymm8
vpmullw %ymm6, %ymm3, %ymm5
vpmulhw %ymm6, %ymm4, %ymm2
vpmullw %ymm13, %ymm3, %ymm6
vpmulhw %ymm13, %ymm4, %ymm13
vpmulhw %ymm0, %ymm7, %ymm3
vpmulhw %ymm0, %ymm9, %ymm4
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm8, %ymm11, %ymm7
vpaddw %ymm11, %ymm8, %ymm8
vpsubw %ymm14, %ymm10, %ymm9
vpaddw %ymm10, %ymm14, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 472(%rsi), %ymm1
vmovdqu 504(%rsi), %ymm10
vpunpcklqdq %ymm2, %ymm9, %ymm5
vpunpckhqdq %ymm2, %ymm9, %ymm12
vpunpcklqdq %ymm3, %ymm4, %ymm8
vpunpckhqdq %ymm3, %ymm4, %ymm6
vpunpcklqdq %ymm7, %ymm13, %ymm2
vpunpckhqdq %ymm7, %ymm13, %ymm4
vpunpcklqdq %ymm11, %ymm14, %ymm3
vpunpckhqdq %ymm11, %ymm14, %ymm7
vpmullw %ymm2, %ymm1, %ymm11
vpmulhw %ymm2, %ymm10, %ymm13
vpmullw %ymm4, %ymm1, %ymm14
vpmulhw %ymm4, %ymm10, %ymm4
vpmullw %ymm3, %ymm1, %ymm2
vpmulhw %ymm3, %ymm10, %ymm9
vpmullw %ymm7, %ymm1, %ymm3
vpmulhw %ymm7, %ymm10, %ymm7
vpmulhw %ymm0, %ymm11, %ymm10
vpmulhw %ymm0, %ymm14, %ymm1
vpmulhw %ymm0, %ymm2, %ymm2
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm4, %ymm12, %ymm11
vpaddw %ymm12, %ymm4, %ymm4
vpsubw %ymm13, %ymm5, %ymm12
vpaddw %ymm5, %ymm13, %ymm13
vpsubw %ymm7, %ymm6, %ymm5
vpaddw %ymm6, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpaddw %ymm12, %ymm10, %ymm9
vpsubw %ymm10, %ymm13, %ymm12
vpaddw %ymm11, %ymm1, %ymm10
vpsubw %ymm1, %ymm4, %ymm4
vpaddw %ymm7, %ymm2, %ymm7
vpsubw %ymm2, %ymm8, %ymm2
vpaddw %ymm5, %ymm3, %ymm13
vpsubw %ymm3, %ymm6, %ymm6
vmovdqu 536(%rsi), %ymm3
vmovdqu 568(%rsi), %ymm5
vmovsldup %ymm9, %ymm1
vpblendd $-86, %ymm1, %ymm12, %ymm11
vpsrlq $32, %ymm12, %ymm1
vpblendd $-86, %ymm9, %ymm1, %ymm8
vmovsldup %ymm10, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm1
vpsrlq $32, %ymm4, %ymm4
vpblendd $-86, %ymm10, %ymm4, %ymm12
vmovsldup %ymm7, %ymm4
vpblendd $-86, %ymm4, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm7, %ymm2, %ymm7
vmovsldup %ymm13, %ymm2
vpblendd $-86, %ymm2, %ymm6, %ymm2
vpsrlq $32, %ymm6, %ymm4
vpblendd $-86, %ymm13, %ymm4, %ymm13
vpmullw %ymm9, %ymm3, %ymm4
vpmulhw %ymm9, %ymm5, %ymm10
vpmullw %ymm7, %ymm3, %ymm14
vpmulhw %ymm7, %ymm5, %ymm9
vpmullw %ymm2, %ymm3, %ymm6
vpmulhw %ymm2, %ymm5, %ymm2
vpmullw %ymm13, %ymm3, %ymm7
vpmulhw %ymm13, %ymm5, %ymm13
vpmulhw %ymm0, %ymm4, %ymm3
vpmulhw %ymm0, %ymm14, %ymm4
vpmulhw %ymm0, %ymm6, %ymm5
vpmulhw %ymm0, %ymm7, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm9
vpaddw %ymm7, %ymm4, %ymm3
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm7
vpsubw %ymm5, %ymm1, %ymm13
vpaddw %ymm11, %ymm6, %ymm11
vpsubw %ymm6, %ymm12, %ymm14
vmovdqu 600(%rsi), %ymm5
vmovdqu 632(%rsi), %ymm6
vpslld $16, %ymm2, %ymm1
vpblendw $-86, %ymm1, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm1
vpblendw $-86, %ymm2, %ymm1, %ymm8
vpslld $16, %ymm3, %ymm1
vpblendw $-86, %ymm1, %ymm4, %ymm1
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm12
vpslld $16, %ymm7, %ymm2
vpblendw $-86, %ymm2, %ymm13, %ymm4
vpsrld $16, %ymm13, %ymm2
vpblendw $-86, %ymm7, %ymm2, %ymm7
vpslld $16, %ymm11, %ymm2
vpblendw $-86, %ymm2, %ymm14, %ymm2
vpsrld $16, %ymm14, %ymm3
vpblendw $-86, %ymm11, %ymm3, %ymm13
vpmullw %ymm4, %ymm5, %ymm3
vpmulhw %ymm4, %ymm6, %ymm11
vpmullw %ymm7, %ymm5, %ymm4
vpmulhw %ymm7, %ymm6, %ymm9
vpmullw %ymm2, %ymm5, %ymm7
vpmulhw %ymm2, %ymm6, %ymm2
vpmullw %ymm13, %ymm5, %ymm14
vpmulhw %ymm13, %ymm6, %ymm13
vpmulhw %ymm0, %ymm3, %ymm3
vpmulhw %ymm0, %ymm4, %ymm4
vpmulhw %ymm0, %ymm7, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpsubw %ymm9, %ymm8, %ymm7
vpaddw %ymm8, %ymm9, %ymm8
vpsubw %ymm11, %ymm10, %ymm9
vpaddw %ymm10, %ymm11, %ymm10
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpsubw %ymm2, %ymm1, %ymm13
vpaddw %ymm1, %ymm2, %ymm1
vpaddw %ymm9, %ymm3, %ymm2
vpsubw %ymm3, %ymm10, %ymm3
vpaddw %ymm7, %ymm4, %ymm7
vpsubw %ymm4, %ymm8, %ymm4
vpaddw %ymm13, %ymm5, %ymm8
vpsubw %ymm5, %ymm1, %ymm1
vpaddw %ymm11, %ymm6, %ymm5
vpsubw %ymm6, %ymm12, %ymm10
vmovdqu 664(%rsi), %ymm9
vmovdqu 696(%rsi), %ymm13
vmovdqu 728(%rsi), %ymm11
vmovdqu 760(%rsi), %ymm6
vpmullw %ymm1, %ymm9, %ymm14
vpmulhw %ymm1, %ymm13, %ymm12
vpmullw %ymm10, %ymm9, %ymm9
vpmulhw %ymm10, %ymm13, %ymm13
vpmullw %ymm8, %ymm11, %ymm10
vpmulhw %ymm8, %ymm6, %ymm1
vpmullw %ymm5, %ymm11, %ymm11
vpmulhw %ymm5, %ymm6, %ymm5
vpmulhw %ymm0, %ymm14, %ymm6
vpmulhw %ymm0, %ymm9, %ymm8
vpmulhw %ymm0, %ymm10, %ymm9
vpmulhw %ymm0, %ymm11, %ymm10
vpsubw %ymm13, %ymm4, %ymm11
vpaddw %ymm4, %ymm13, %ymm4
vpsubw %ymm12, %ymm3, %ymm13
vpaddw %ymm3, %ymm12, %ymm3
vpsubw %ymm5, %ymm7, %ymm12
vpaddw %ymm7, %ymm5, %ymm5
vpsubw %ymm1, %ymm2, %ymm7
vpaddw %ymm2, %ymm1, %ymm1
vpaddw %ymm13, %ymm6, %ymm2
vpsubw %ymm6, %ymm3, %ymm3
vpaddw %ymm11, %ymm8, %ymm6
vpsubw %ymm8, %ymm4, %ymm4
vpaddw %ymm7, %ymm9, %ymm7
vpsubw %ymm9, %ymm1, %ymm8
vpaddw %ymm12, %ymm10, %ymm1
vpsubw %ymm10, %ymm5, %ymm5
vmovdqu glob_data + 384(%rip), %ymm9
vpmulhw %ymm9, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm3
vpmulhw %ymm9, %ymm4, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm4, %ymm4
vpmulhw %ymm9, %ymm8, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm8, %ymm8
vpmulhw %ymm9, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm5
vpmulhw %ymm9, %ymm2, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm2, %ymm2
vpmulhw %ymm9, %ymm6, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm6, %ymm6
vpmulhw %ymm9, %ymm7, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm7, %ymm7
vpmulhw %ymm9, %ymm1, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm0
vpsubw %ymm0, %ymm1, %ymm0
vmovdqu %ymm3, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vmovdqu %ymm2, 320(%rcx)
vmovdqu %ymm6, 352(%rcx)
vmovdqu %ymm8, 384(%rcx)
vmovdqu %ymm5, 416(%rcx)
vmovdqu %ymm7, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%rdi
L_poly_invntt$1:
leaq glob_data + 480(%rip), %rsi
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu (%rsi), %ymm12
vmovdqu 64(%rsi), %ymm1
vmovdqu 32(%rsi), %ymm2
vmovdqu 96(%rsi), %ymm5
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm15
vmovdqu 96(%rcx), %ymm11
vmovdqu 128(%rcx), %ymm7
vmovdqu 160(%rcx), %ymm8
vmovdqu 192(%rcx), %ymm13
vmovdqu 224(%rcx), %ymm14
vpsubw %ymm15, %ymm3, %ymm6
vpsubw %ymm11, %ymm4, %ymm9
vpsubw %ymm13, %ymm7, %ymm10
vpaddw %ymm3, %ymm15, %ymm3
vpaddw %ymm4, %ymm11, %ymm4
vpmullw %ymm6, %ymm12, %ymm11
vpaddw %ymm7, %ymm13, %ymm7
vpmullw %ymm9, %ymm12, %ymm12
vpsubw %ymm14, %ymm8, %ymm13
vpaddw %ymm8, %ymm14, %ymm8
vpmullw %ymm10, %ymm1, %ymm14
vpmullw %ymm13, %ymm1, %ymm1
vpmulhw %ymm6, %ymm2, %ymm6
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm10, %ymm5, %ymm9
vpmulhw %ymm13, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm10
vpmulhw %ymm12, %ymm0, %ymm11
vpmulhw %ymm14, %ymm0, %ymm12
vpmulhw %ymm1, %ymm0, %ymm1
vpsubw %ymm10, %ymm6, %ymm6
vpsubw %ymm11, %ymm2, %ymm11
vpsubw %ymm12, %ymm9, %ymm9
vpsubw %ymm1, %ymm5, %ymm13
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu 128(%rsi), %ymm2
vmovdqu 160(%rsi), %ymm5
vpmulhw %ymm1, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm10
vpmulhw %ymm1, %ymm4, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm12
vpmulhw %ymm1, %ymm7, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm7, %ymm7
vpmulhw %ymm1, %ymm8, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm8, %ymm8
vpsubw %ymm7, %ymm10, %ymm15
vpsubw %ymm8, %ymm12, %ymm3
vpsubw %ymm9, %ymm6, %ymm4
vpaddw %ymm10, %ymm7, %ymm7
vpaddw %ymm12, %ymm8, %ymm8
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm6, %ymm9, %ymm9
vpmullw %ymm3, %ymm2, %ymm6
vpsubw %ymm13, %ymm11, %ymm12
vpaddw %ymm11, %ymm13, %ymm11
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm12, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm12, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm6, %ymm0, %ymm12
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm6
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm12, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm6, %ymm5, %ymm5
vpslld $16, %ymm8, %ymm6
vpblendw $-86, %ymm6, %ymm7, %ymm6
vpsrld $16, %ymm7, %ymm7
vpblendw $-86, %ymm8, %ymm7, %ymm7
vpslld $16, %ymm11, %ymm8
vpblendw $-86, %ymm8, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm11, %ymm8, %ymm11
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm9
vpslld $16, %ymm5, %ymm2
vpblendw $-86, %ymm2, %ymm4, %ymm12
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm5, %ymm2, %ymm13
vmovdqu 192(%rsi), %ymm2
vmovdqu 224(%rsi), %ymm5
vpsubw %ymm7, %ymm6, %ymm15
vpsubw %ymm11, %ymm10, %ymm3
vpsubw %ymm9, %ymm8, %ymm4
vpaddw %ymm6, %ymm7, %ymm6
vpaddw %ymm10, %ymm11, %ymm7
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm8, %ymm9, %ymm8
vpmullw %ymm3, %ymm2, %ymm9
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm11, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm11, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm9, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm9
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm11, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm9, %ymm5, %ymm5
vpmulhw %ymm1, %ymm6, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm6, %ymm6
vmovsldup %ymm7, %ymm9
vpblendd $-86, %ymm9, %ymm6, %ymm9
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm10
vmovsldup %ymm12, %ymm6
vpblendd $-86, %ymm6, %ymm8, %ymm11
vpsrlq $32, %ymm8, %ymm6
vpblendd $-86, %ymm12, %ymm6, %ymm14
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm2, %ymm12
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm13
vmovsldup %ymm5, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm5, %ymm3, %ymm3
vmovdqu 256(%rsi), %ymm4
vmovdqu 288(%rsi), %ymm5
vpsubw %ymm10, %ymm9, %ymm6
vpsubw %ymm14, %ymm11, %ymm7
vpsubw %ymm13, %ymm12, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm11, %ymm14, %ymm10
vpmullw %ymm6, %ymm4, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm7, %ymm4, %ymm13
vpsubw %ymm3, %ymm2, %ymm14
vpaddw %ymm2, %ymm3, %ymm2
vpmullw %ymm8, %ymm4, %ymm3
vpmullw %ymm14, %ymm4, %ymm4
vpmulhw %ymm6, %ymm5, %ymm6
vpmulhw %ymm7, %ymm5, %ymm7
vpmulhw %ymm8, %ymm5, %ymm8
vpmulhw %ymm14, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm3, %ymm0, %ymm3
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm11, %ymm6, %ymm6
vpsubw %ymm13, %ymm7, %ymm7
vpsubw %ymm3, %ymm8, %ymm3
vpsubw %ymm4, %ymm5, %ymm4
vpmulhw %ymm1, %ymm9, %ymm5
vpsraw $10, %ymm5, %ymm5
vpmullw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm9, %ymm8
vpunpcklqdq %ymm10, %ymm8, %ymm5
vpunpckhqdq %ymm10, %ymm8, %ymm8
vpunpcklqdq %ymm2, %ymm12, %ymm9
vpunpckhqdq %ymm2, %ymm12, %ymm2
vpunpcklqdq %ymm7, %ymm6, %ymm10
vpunpckhqdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm4, %ymm3, %ymm7
vpunpckhqdq %ymm4, %ymm3, %ymm3
vmovdqu 320(%rsi), %ymm4
vmovdqu 352(%rsi), %ymm11
vpsubw %ymm8, %ymm5, %ymm12
vpsubw %ymm2, %ymm9, %ymm13
vpsubw %ymm6, %ymm10, %ymm14
vpaddw %ymm5, %ymm8, %ymm5
vpaddw %ymm9, %ymm2, %ymm2
vpmullw %ymm12, %ymm4, %ymm8
vpaddw %ymm10, %ymm6, %ymm6
vpmullw %ymm13, %ymm4, %ymm9
vpsubw %ymm3, %ymm7, %ymm10
vpaddw %ymm7, %ymm3, %ymm3
vpmullw %ymm14, %ymm4, %ymm7
vpmullw %ymm10, %ymm4, %ymm4
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm8, %ymm12, %ymm8
vpsubw %ymm9, %ymm13, %ymm9
vpsubw %ymm7, %ymm14, %ymm7
vpsubw %ymm4, %ymm10, %ymm4
vpmulhw %ymm1, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm10
vperm2i128 $32, %ymm2, %ymm10, %ymm5
vperm2i128 $49, %ymm2, %ymm10, %ymm2
vperm2i128 $32, %ymm3, %ymm6, %ymm10
vperm2i128 $49, %ymm3, %ymm6, %ymm3
vperm2i128 $32, %ymm9, %ymm8, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm8
vperm2i128 $32, %ymm4, %ymm7, %ymm9
vperm2i128 $49, %ymm4, %ymm7, %ymm4
vpbroadcastd 384(%rsi), %ymm7
vpbroadcastd 388(%rsi), %ymm11
vpsubw %ymm2, %ymm5, %ymm12
vpsubw %ymm3, %ymm10, %ymm13
vpsubw %ymm8, %ymm6, %ymm14
vpaddw %ymm5, %ymm2, %ymm2
vpaddw %ymm10, %ymm3, %ymm3
vpmullw %ymm12, %ymm7, %ymm5
vpaddw %ymm6, %ymm8, %ymm6
vpmullw %ymm13, %ymm7, %ymm8
vpsubw %ymm4, %ymm9, %ymm10
vpaddw %ymm9, %ymm4, %ymm4
vpmullw %ymm14, %ymm7, %ymm9
vpmullw %ymm10, %ymm7, %ymm7
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm5, %ymm0, %ymm5
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpsubw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm13, %ymm8
vpsubw %ymm9, %ymm14, %ymm9
vpsubw %ymm7, %ymm10, %ymm7
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, (%rcx)
vmovdqu %ymm3, 32(%rcx)
vmovdqu %ymm6, 64(%rcx)
vmovdqu %ymm4, 96(%rcx)
vmovdqu %ymm5, 128(%rcx)
vmovdqu %ymm8, 160(%rcx)
vmovdqu %ymm9, 192(%rcx)
vmovdqu %ymm7, 224(%rcx)
vmovdqu 392(%rsi), %ymm12
vmovdqu 456(%rsi), %ymm1
vmovdqu 424(%rsi), %ymm2
vmovdqu 488(%rsi), %ymm5
vmovdqu 256(%rcx), %ymm3
vmovdqu 288(%rcx), %ymm4
vmovdqu 320(%rcx), %ymm15
vmovdqu 352(%rcx), %ymm11
vmovdqu 384(%rcx), %ymm7
vmovdqu 416(%rcx), %ymm8
vmovdqu 448(%rcx), %ymm13
vmovdqu 480(%rcx), %ymm14
vpsubw %ymm15, %ymm3, %ymm6
vpsubw %ymm11, %ymm4, %ymm9
vpsubw %ymm13, %ymm7, %ymm10
vpaddw %ymm3, %ymm15, %ymm3
vpaddw %ymm4, %ymm11, %ymm4
vpmullw %ymm6, %ymm12, %ymm11
vpaddw %ymm7, %ymm13, %ymm7
vpmullw %ymm9, %ymm12, %ymm12
vpsubw %ymm14, %ymm8, %ymm13
vpaddw %ymm8, %ymm14, %ymm8
vpmullw %ymm10, %ymm1, %ymm14
vpmullw %ymm13, %ymm1, %ymm1
vpmulhw %ymm6, %ymm2, %ymm6
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm10, %ymm5, %ymm9
vpmulhw %ymm13, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm10
vpmulhw %ymm12, %ymm0, %ymm11
vpmulhw %ymm14, %ymm0, %ymm12
vpmulhw %ymm1, %ymm0, %ymm1
vpsubw %ymm10, %ymm6, %ymm6
vpsubw %ymm11, %ymm2, %ymm11
vpsubw %ymm12, %ymm9, %ymm9
vpsubw %ymm1, %ymm5, %ymm13
vmovdqu glob_data + 384(%rip), %ymm1
vmovdqu 520(%rsi), %ymm2
vmovdqu 552(%rsi), %ymm5
vpmulhw %ymm1, %ymm3, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm3, %ymm10
vpmulhw %ymm1, %ymm4, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm12
vpmulhw %ymm1, %ymm7, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm7, %ymm7
vpmulhw %ymm1, %ymm8, %ymm3
vpsraw $10, %ymm3, %ymm3
vpmullw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm8, %ymm8
vpsubw %ymm7, %ymm10, %ymm15
vpsubw %ymm8, %ymm12, %ymm3
vpsubw %ymm9, %ymm6, %ymm4
vpaddw %ymm10, %ymm7, %ymm7
vpaddw %ymm12, %ymm8, %ymm8
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm6, %ymm9, %ymm9
vpmullw %ymm3, %ymm2, %ymm6
vpsubw %ymm13, %ymm11, %ymm12
vpaddw %ymm11, %ymm13, %ymm11
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm12, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm12, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm6, %ymm0, %ymm12
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm6
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm12, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm6, %ymm5, %ymm5
vpslld $16, %ymm8, %ymm6
vpblendw $-86, %ymm6, %ymm7, %ymm6
vpsrld $16, %ymm7, %ymm7
vpblendw $-86, %ymm8, %ymm7, %ymm7
vpslld $16, %ymm11, %ymm8
vpblendw $-86, %ymm8, %ymm9, %ymm10
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm11, %ymm8, %ymm11
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm9
vpslld $16, %ymm5, %ymm2
vpblendw $-86, %ymm2, %ymm4, %ymm12
vpsrld $16, %ymm4, %ymm2
vpblendw $-86, %ymm5, %ymm2, %ymm13
vmovdqu 584(%rsi), %ymm2
vmovdqu 616(%rsi), %ymm5
vpsubw %ymm7, %ymm6, %ymm15
vpsubw %ymm11, %ymm10, %ymm3
vpsubw %ymm9, %ymm8, %ymm4
vpaddw %ymm6, %ymm7, %ymm6
vpaddw %ymm10, %ymm11, %ymm7
vpmullw %ymm15, %ymm2, %ymm10
vpaddw %ymm8, %ymm9, %ymm8
vpmullw %ymm3, %ymm2, %ymm9
vpsubw %ymm13, %ymm12, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm4, %ymm2, %ymm13
vpmullw %ymm11, %ymm2, %ymm14
vpmulhw %ymm15, %ymm5, %ymm2
vpmulhw %ymm3, %ymm5, %ymm3
vpmulhw %ymm4, %ymm5, %ymm4
vpmulhw %ymm11, %ymm5, %ymm5
vpmulhw %ymm10, %ymm0, %ymm10
vpmulhw %ymm9, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm14, %ymm0, %ymm9
vpsubw %ymm10, %ymm2, %ymm2
vpsubw %ymm11, %ymm3, %ymm3
vpsubw %ymm13, %ymm4, %ymm4
vpsubw %ymm9, %ymm5, %ymm5
vpmulhw %ymm1, %ymm6, %ymm9
vpsraw $10, %ymm9, %ymm9
vpmullw %ymm0, %ymm9, %ymm9
vpsubw %ymm9, %ymm6, %ymm6
vmovsldup %ymm7, %ymm9
vpblendd $-86, %ymm9, %ymm6, %ymm9
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm10
vmovsldup %ymm12, %ymm6
vpblendd $-86, %ymm6, %ymm8, %ymm11
vpsrlq $32, %ymm8, %ymm6
vpblendd $-86, %ymm12, %ymm6, %ymm14
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm2, %ymm12
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm13
vmovsldup %ymm5, %ymm2
vpblendd $-86, %ymm2, %ymm4, %ymm2
vpsrlq $32, %ymm4, %ymm3
vpblendd $-86, %ymm5, %ymm3, %ymm3
vmovdqu 648(%rsi), %ymm4
vmovdqu 680(%rsi), %ymm5
vpsubw %ymm10, %ymm9, %ymm6
vpsubw %ymm14, %ymm11, %ymm7
vpsubw %ymm13, %ymm12, %ymm8
vpaddw %ymm9, %ymm10, %ymm9
vpaddw %ymm11, %ymm14, %ymm10
vpmullw %ymm6, %ymm4, %ymm11
vpaddw %ymm12, %ymm13, %ymm12
vpmullw %ymm7, %ymm4, %ymm13
vpsubw %ymm3, %ymm2, %ymm14
vpaddw %ymm2, %ymm3, %ymm2
vpmullw %ymm8, %ymm4, %ymm3
vpmullw %ymm14, %ymm4, %ymm4
vpmulhw %ymm6, %ymm5, %ymm6
vpmulhw %ymm7, %ymm5, %ymm7
vpmulhw %ymm8, %ymm5, %ymm8
vpmulhw %ymm14, %ymm5, %ymm5
vpmulhw %ymm11, %ymm0, %ymm11
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm3, %ymm0, %ymm3
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm11, %ymm6, %ymm6
vpsubw %ymm13, %ymm7, %ymm7
vpsubw %ymm3, %ymm8, %ymm3
vpsubw %ymm4, %ymm5, %ymm4
vpmulhw %ymm1, %ymm9, %ymm5
vpsraw $10, %ymm5, %ymm5
vpmullw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm9, %ymm8
vpunpcklqdq %ymm10, %ymm8, %ymm5
vpunpckhqdq %ymm10, %ymm8, %ymm8
vpunpcklqdq %ymm2, %ymm12, %ymm9
vpunpckhqdq %ymm2, %ymm12, %ymm2
vpunpcklqdq %ymm7, %ymm6, %ymm10
vpunpckhqdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm4, %ymm3, %ymm7
vpunpckhqdq %ymm4, %ymm3, %ymm3
vmovdqu 712(%rsi), %ymm4
vmovdqu 744(%rsi), %ymm11
vpsubw %ymm8, %ymm5, %ymm12
vpsubw %ymm2, %ymm9, %ymm13
vpsubw %ymm6, %ymm10, %ymm14
vpaddw %ymm5, %ymm8, %ymm5
vpaddw %ymm9, %ymm2, %ymm2
vpmullw %ymm12, %ymm4, %ymm8
vpaddw %ymm10, %ymm6, %ymm6
vpmullw %ymm13, %ymm4, %ymm9
vpsubw %ymm3, %ymm7, %ymm10
vpaddw %ymm7, %ymm3, %ymm3
vpmullw %ymm14, %ymm4, %ymm7
vpmullw %ymm10, %ymm4, %ymm4
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpmulhw %ymm4, %ymm0, %ymm4
vpsubw %ymm8, %ymm12, %ymm8
vpsubw %ymm9, %ymm13, %ymm9
vpsubw %ymm7, %ymm14, %ymm7
vpsubw %ymm4, %ymm10, %ymm4
vpmulhw %ymm1, %ymm5, %ymm10
vpsraw $10, %ymm10, %ymm10
vpmullw %ymm0, %ymm10, %ymm10
vpsubw %ymm10, %ymm5, %ymm10
vperm2i128 $32, %ymm2, %ymm10, %ymm5
vperm2i128 $49, %ymm2, %ymm10, %ymm2
vperm2i128 $32, %ymm3, %ymm6, %ymm10
vperm2i128 $49, %ymm3, %ymm6, %ymm3
vperm2i128 $32, %ymm9, %ymm8, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm8
vperm2i128 $32, %ymm4, %ymm7, %ymm9
vperm2i128 $49, %ymm4, %ymm7, %ymm4
vpbroadcastd 776(%rsi), %ymm7
vpbroadcastd 780(%rsi), %ymm11
vpsubw %ymm2, %ymm5, %ymm12
vpsubw %ymm3, %ymm10, %ymm13
vpsubw %ymm8, %ymm6, %ymm14
vpaddw %ymm5, %ymm2, %ymm2
vpaddw %ymm10, %ymm3, %ymm3
vpmullw %ymm12, %ymm7, %ymm5
vpaddw %ymm6, %ymm8, %ymm6
vpmullw %ymm13, %ymm7, %ymm8
vpsubw %ymm4, %ymm9, %ymm10
vpaddw %ymm9, %ymm4, %ymm4
vpmullw %ymm14, %ymm7, %ymm9
vpmullw %ymm10, %ymm7, %ymm7
vpmulhw %ymm12, %ymm11, %ymm12
vpmulhw %ymm13, %ymm11, %ymm13
vpmulhw %ymm14, %ymm11, %ymm14
vpmulhw %ymm10, %ymm11, %ymm10
vpmulhw %ymm5, %ymm0, %ymm5
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpmulhw %ymm7, %ymm0, %ymm7
vpsubw %ymm5, %ymm12, %ymm5
vpsubw %ymm8, %ymm13, %ymm8
vpsubw %ymm9, %ymm14, %ymm9
vpsubw %ymm7, %ymm10, %ymm7
vpmulhw %ymm1, %ymm2, %ymm1
vpsraw $10, %ymm1, %ymm1
vpmullw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm2, %ymm10
vmovdqu %ymm5, 384(%rcx)
vmovdqu %ymm8, 416(%rcx)
vmovdqu %ymm9, 448(%rcx)
vmovdqu %ymm7, 480(%rcx)
vpbroadcastd 784(%rsi), %ymm1
vpbroadcastd 788(%rsi), %ymm2
vmovdqu %ymm4, %ymm7
vmovdqu %ymm3, %ymm4
vmovdqu %ymm10, %ymm3
vmovdqu (%rcx), %ymm9
vmovdqu 32(%rcx), %ymm13
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm8
vpsubw %ymm3, %ymm9, %ymm10
vpsubw %ymm4, %ymm13, %ymm11
vpsubw %ymm6, %ymm5, %ymm12
vpaddw %ymm9, %ymm3, %ymm3
vpaddw %ymm13, %ymm4, %ymm4
vpmullw %ymm10, %ymm1, %ymm13
vpaddw %ymm5, %ymm6, %ymm5
vpmullw %ymm11, %ymm1, %ymm6
vpsubw %ymm7, %ymm8, %ymm14
vpaddw %ymm8, %ymm7, %ymm7
vpmullw %ymm12, %ymm1, %ymm8
vpmullw %ymm14, %ymm1, %ymm9
vpmulhw %ymm10, %ymm2, %ymm10
vpmulhw %ymm11, %ymm2, %ymm11
vpmulhw %ymm12, %ymm2, %ymm12
vpmulhw %ymm14, %ymm2, %ymm14
vpmulhw %ymm13, %ymm0, %ymm13
vpmulhw %ymm6, %ymm0, %ymm6
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm9, %ymm0, %ymm9
vpsubw %ymm13, %ymm10, %ymm10
vpsubw %ymm6, %ymm11, %ymm6
vpsubw %ymm8, %ymm12, %ymm11
vpsubw %ymm9, %ymm14, %ymm12
vmovdqu glob_data + 320(%rip), %ymm8
vmovdqu glob_data + 352(%rip), %ymm9
vmovdqu %ymm10, 256(%rcx)
vmovdqu %ymm6, 288(%rcx)
vmovdqu %ymm11, 320(%rcx)
vmovdqu %ymm12, 352(%rcx)
vpmullw %ymm3, %ymm8, %ymm6
vpmulhw %ymm3, %ymm9, %ymm3
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm3, %ymm3
vpmullw %ymm4, %ymm8, %ymm6
vpmulhw %ymm4, %ymm9, %ymm4
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vpmullw %ymm5, %ymm8, %ymm6
vpmulhw %ymm5, %ymm9, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm5, %ymm5
vpmullw %ymm7, %ymm8, %ymm6
vpmulhw %ymm7, %ymm9, %ymm7
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm7, %ymm6
vmovdqu %ymm3, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu %ymm5, 64(%rcx)
vmovdqu %ymm6, 96(%rcx)
vmovdqu 384(%rcx), %ymm4
vmovdqu 416(%rcx), %ymm5
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm10
vmovdqu 128(%rcx), %ymm6
vmovdqu 160(%rcx), %ymm9
vmovdqu 192(%rcx), %ymm8
vmovdqu 224(%rcx), %ymm11
vpsubw %ymm4, %ymm6, %ymm12
vpsubw %ymm5, %ymm9, %ymm13
vpsubw %ymm7, %ymm8, %ymm3
vpaddw %ymm6, %ymm4, %ymm4
vpaddw %ymm9, %ymm5, %ymm5
vpmullw %ymm12, %ymm1, %ymm6
vpaddw %ymm8, %ymm7, %ymm7
vpmullw %ymm13, %ymm1, %ymm8
vpsubw %ymm10, %ymm11, %ymm9
vpaddw %ymm11, %ymm10, %ymm10
vpmullw %ymm3, %ymm1, %ymm11
vpmullw %ymm9, %ymm1, %ymm1
vpmulhw %ymm12, %ymm2, %ymm12
vpmulhw %ymm13, %ymm2, %ymm13
vpmulhw %ymm3, %ymm2, %ymm3
vpmulhw %ymm9, %ymm2, %ymm2
vpmulhw %ymm6, %ymm0, %ymm6
vpmulhw %ymm8, %ymm0, %ymm8
vpmulhw %ymm11, %ymm0, %ymm9
vpmulhw %ymm1, %ymm0, %ymm11
vpsubw %ymm6, %ymm12, %ymm1
vpsubw %ymm8, %ymm13, %ymm6
vpsubw %ymm9, %ymm3, %ymm8
vpsubw %ymm11, %ymm2, %ymm9
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vmovdqu %ymm1, 384(%rcx)
vmovdqu %ymm6, 416(%rcx)
vmovdqu %ymm8, 448(%rcx)
vmovdqu %ymm9, 480(%rcx)
vpmullw %ymm4, %ymm2, %ymm1
vpmulhw %ymm4, %ymm3, %ymm4
vpmulhw %ymm0, %ymm1, %ymm1
vpsubw %ymm1, %ymm4, %ymm1
vpmullw %ymm5, %ymm2, %ymm4
vpmulhw %ymm5, %ymm3, %ymm5
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm5, %ymm4
vpmullw %ymm7, %ymm2, %ymm5
vpmulhw %ymm7, %ymm3, %ymm6
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm6, %ymm5
vpmullw %ymm10, %ymm2, %ymm2
vpmulhw %ymm10, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm0
vpsubw %ymm0, %ymm3, %ymm0
vmovdqu %ymm1, 128(%rcx)
vmovdqu %ymm4, 160(%rcx)
vmovdqu %ymm5, 192(%rcx)
vmovdqu %ymm0, 224(%rcx)
jmp *%rdi
L_poly_getnoise_eta1122_4x$1:
movq %rax, 1440(%rsp)
vmovdqu (%rcx), %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 480(%rsp)
movb %dl, 32(%rsp)
incb %dl
movb %dl, 192(%rsp)
incb %dl
movb %dl, 352(%rsp)
incb %dl
movb %dl, 512(%rsp)
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r11
leaq -8(%rsp), %rsp
leaq L_poly_getnoise_eta1122_4x$3(%rip), %r10
movq %r10, (%rsp)
jmp L_shake256_absorb4x_33$1
L_poly_getnoise_eta1122_4x$3:
leaq 8(%rsp), %rsp
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r10
movq %rcx, %r11
movq %rdx, %rbx
movq %rsi, %rbp
leaq -832(%rsp), %rsp
leaq L_poly_getnoise_eta1122_4x$2(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L_poly_getnoise_eta1122_4x$2:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r10)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r10)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r10)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r10)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r10)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r10)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r10)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r10)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r10)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r10)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r10)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r10)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r10)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r10)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r10)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r10)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r10)
movq 1440(%rsp), %rax
movq %rsp, %rcx
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
leaq 160(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm7, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm4, 96(%rdi)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rdi)
vmovdqu %ymm7, 160(%rdi)
vmovdqu %ymm6, 192(%rdi)
vmovdqu %ymm4, 224(%rdi)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rdi)
vmovdqu %ymm7, 288(%rdi)
vmovdqu %ymm6, 320(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rdi)
vmovdqu %ymm3, 416(%rdi)
vmovdqu %ymm2, 448(%rdi)
vmovdqu %ymm0, 480(%rdi)
leaq 320(%rsp), %rax
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r8)
vmovdqu %ymm7, 32(%r8)
vmovdqu %ymm6, 64(%r8)
vmovdqu %ymm4, 96(%r8)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r8)
vmovdqu %ymm7, 160(%r8)
vmovdqu %ymm6, 192(%r8)
vmovdqu %ymm4, 224(%r8)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r8)
vmovdqu %ymm7, 288(%r8)
vmovdqu %ymm6, 320(%r8)
vmovdqu %ymm4, 352(%r8)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm3, 416(%r8)
vmovdqu %ymm2, 448(%r8)
vmovdqu %ymm0, 480(%r8)
leaq 480(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r9)
vmovdqu %ymm7, 32(%r9)
vmovdqu %ymm6, 64(%r9)
vmovdqu %ymm4, 96(%r9)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r9)
vmovdqu %ymm7, 160(%r9)
vmovdqu %ymm6, 192(%r9)
vmovdqu %ymm4, 224(%r9)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r9)
vmovdqu %ymm7, 288(%r9)
vmovdqu %ymm6, 320(%r9)
vmovdqu %ymm4, 352(%r9)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r9)
vmovdqu %ymm3, 416(%r9)
vmovdqu %ymm2, 448(%r9)
vmovdqu %ymm0, 480(%r9)
jmp *1464(%rsp)
L_poly_getnoise_eta1_4x$1:
movq %rax, 1440(%rsp)
vmovdqu (%r10), %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 320(%rsp)
vmovdqu %ymm0, 480(%rsp)
movb %cl, 32(%rsp)
incb %cl
movb %cl, 192(%rsp)
incb %cl
movb %cl, 352(%rsp)
incb %cl
movb %cl, 512(%rsp)
leaq 640(%rsp), %rax
movq %rsp, %rcx
leaq 160(%rsp), %rdx
leaq 320(%rsp), %rsi
leaq 480(%rsp), %r11
leaq -8(%rsp), %rsp
leaq L_poly_getnoise_eta1_4x$3(%rip), %rbx
movq %rbx, (%rsp)
jmp L_shake256_absorb4x_33$1
L_poly_getnoise_eta1_4x$3:
leaq 8(%rsp), %rsp
leaq 640(%rsp), %rax
movq %rsp, %r11
leaq 160(%rsp), %rcx
leaq 320(%rsp), %rdx
leaq 480(%rsp), %rsi
movq %rcx, %rbx
movq %rdx, %rbp
movq %rsi, %r12
leaq -832(%rsp), %rsp
leaq L_poly_getnoise_eta1_4x$2(%rip), %rcx
movq %rcx, 800(%rsp)
jmp L_keccakf1600_4x_avx2$1
L_poly_getnoise_eta1_4x$2:
leaq 832(%rsp), %rsp
vmovdqu (%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, (%r11)
vmovhpd %xmm1, (%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, (%rbp)
vmovhpd %xmm0, (%r12)
vmovdqu 32(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 8(%r11)
vmovhpd %xmm1, 8(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 8(%rbp)
vmovhpd %xmm0, 8(%r12)
vmovdqu 64(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 16(%r11)
vmovhpd %xmm1, 16(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 16(%rbp)
vmovhpd %xmm0, 16(%r12)
vmovdqu 96(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 24(%r11)
vmovhpd %xmm1, 24(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 24(%rbp)
vmovhpd %xmm0, 24(%r12)
vmovdqu 128(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 32(%r11)
vmovhpd %xmm1, 32(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 32(%rbp)
vmovhpd %xmm0, 32(%r12)
vmovdqu 160(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 40(%r11)
vmovhpd %xmm1, 40(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 40(%rbp)
vmovhpd %xmm0, 40(%r12)
vmovdqu 192(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 48(%r11)
vmovhpd %xmm1, 48(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 48(%rbp)
vmovhpd %xmm0, 48(%r12)
vmovdqu 224(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 56(%r11)
vmovhpd %xmm1, 56(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 56(%rbp)
vmovhpd %xmm0, 56(%r12)
vmovdqu 256(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 64(%r11)
vmovhpd %xmm1, 64(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 64(%rbp)
vmovhpd %xmm0, 64(%r12)
vmovdqu 288(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 72(%r11)
vmovhpd %xmm1, 72(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 72(%rbp)
vmovhpd %xmm0, 72(%r12)
vmovdqu 320(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 80(%r11)
vmovhpd %xmm1, 80(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 80(%rbp)
vmovhpd %xmm0, 80(%r12)
vmovdqu 352(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 88(%r11)
vmovhpd %xmm1, 88(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 88(%rbp)
vmovhpd %xmm0, 88(%r12)
vmovdqu 384(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 96(%r11)
vmovhpd %xmm1, 96(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 96(%rbp)
vmovhpd %xmm0, 96(%r12)
vmovdqu 416(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 104(%r11)
vmovhpd %xmm1, 104(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 104(%rbp)
vmovhpd %xmm0, 104(%r12)
vmovdqu 448(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 112(%r11)
vmovhpd %xmm1, 112(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 112(%rbp)
vmovhpd %xmm0, 112(%r12)
vmovdqu 480(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 120(%r11)
vmovhpd %xmm1, 120(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 120(%rbp)
vmovhpd %xmm0, 120(%r12)
vmovdqu 512(%rax), %ymm0
vmovdqu %xmm0, %xmm1
vmovlpd %xmm1, 128(%r11)
vmovhpd %xmm1, 128(%rbx)
vextracti128 $1, %ymm0, %xmm0
vmovlpd %xmm0, 128(%rbp)
vmovhpd %xmm0, 128(%r12)
movq 1440(%rsp), %rax
movq %rsp, %rcx
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rcx), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
leaq 160(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm7, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm4, 96(%rdi)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rdi)
vmovdqu %ymm7, 160(%rdi)
vmovdqu %ymm6, 192(%rdi)
vmovdqu %ymm4, 224(%rdi)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rdi)
vmovdqu %ymm7, 288(%rdi)
vmovdqu %ymm6, 320(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rdi)
vmovdqu %ymm3, 416(%rdi)
vmovdqu %ymm2, 448(%rdi)
vmovdqu %ymm0, 480(%rdi)
leaq 320(%rsp), %rax
movl $1431655765, 1448(%rsp)
movl $858993459, 1452(%rsp)
movl $50529027, 1456(%rsp)
movl $252645135, 1460(%rsp)
vpbroadcastd 1448(%rsp), %ymm0
vpbroadcastd 1452(%rsp), %ymm1
vpbroadcastd 1456(%rsp), %ymm2
vpbroadcastd 1460(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r8)
vmovdqu %ymm7, 32(%r8)
vmovdqu %ymm6, 64(%r8)
vmovdqu %ymm4, 96(%r8)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r8)
vmovdqu %ymm7, 160(%r8)
vmovdqu %ymm6, 192(%r8)
vmovdqu %ymm4, 224(%r8)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r8)
vmovdqu %ymm7, 288(%r8)
vmovdqu %ymm6, 320(%r8)
vmovdqu %ymm4, 352(%r8)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm3, 416(%r8)
vmovdqu %ymm2, 448(%r8)
vmovdqu %ymm0, 480(%r8)
leaq 480(%rsp), %rax
movl $1431655765, 1460(%rsp)
movl $858993459, 1456(%rsp)
movl $50529027, 1452(%rsp)
movl $252645135, 1448(%rsp)
vpbroadcastd 1460(%rsp), %ymm0
vpbroadcastd 1456(%rsp), %ymm1
vpbroadcastd 1452(%rsp), %ymm2
vpbroadcastd 1448(%rsp), %ymm3
vmovdqu (%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%r9)
vmovdqu %ymm7, 32(%r9)
vmovdqu %ymm6, 64(%r9)
vmovdqu %ymm4, 96(%r9)
vmovdqu 32(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%r9)
vmovdqu %ymm7, 160(%r9)
vmovdqu %ymm6, 192(%r9)
vmovdqu %ymm4, 224(%r9)
vmovdqu 64(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%r9)
vmovdqu %ymm7, 288(%r9)
vmovdqu %ymm6, 320(%r9)
vmovdqu %ymm4, 352(%r9)
vmovdqu 96(%rax), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%r9)
vmovdqu %ymm3, 416(%r9)
vmovdqu %ymm2, 448(%r9)
vmovdqu %ymm0, 480(%r9)
jmp *1464(%rsp)
L_poly_getnoise$1:
movl $1431655765, 172(%rsp)
movl $858993459, 176(%rsp)
movl $50529027, 180(%rsp)
movl $252645135, 184(%rsp)
movq %rax, 128(%rsp)
movq (%rcx), %rax
movq %rax, 136(%rsp)
movq 8(%rcx), %rax
movq %rax, 144(%rsp)
movq 16(%rcx), %rax
movq %rax, 152(%rsp)
movq 24(%rcx), %rax
movq %rax, 160(%rsp)
movb %dl, 168(%rsp)
movq %rsp, %rax
leaq 136(%rsp), %rcx
leaq -256(%rsp), %rsp
leaq L_poly_getnoise$2(%rip), %rdx
movq %rdx, 224(%rsp)
jmp L_shake256_128_33$1
L_poly_getnoise$2:
leaq 256(%rsp), %rsp
vpbroadcastd 172(%rsp), %ymm0
vpbroadcastd 176(%rsp), %ymm1
vpbroadcastd 180(%rsp), %ymm2
vpbroadcastd 184(%rsp), %ymm3
movq 128(%rsp), %rax
vmovdqu (%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, (%rax)
vmovdqu %ymm7, 32(%rax)
vmovdqu %ymm6, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu 32(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm7, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm4, 224(%rax)
vmovdqu 64(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm5
vpaddb %ymm5, %ymm4, %ymm4
vpsrlw $2, %ymm4, %ymm5
vpand %ymm4, %ymm1, %ymm4
vpand %ymm5, %ymm1, %ymm5
vpaddb %ymm1, %ymm4, %ymm4
vpsubb %ymm5, %ymm4, %ymm4
vpsrlw $4, %ymm4, %ymm5
vpand %ymm4, %ymm3, %ymm4
vpand %ymm5, %ymm3, %ymm5
vpsubb %ymm2, %ymm4, %ymm4
vpsubb %ymm2, %ymm5, %ymm5
vpunpcklbw %ymm5, %ymm4, %ymm6
vpunpckhbw %ymm5, %ymm4, %ymm4
vmovdqu %xmm6, %xmm5
vpmovsxbw %xmm5, %ymm5
vextracti128 $1, %ymm6, %xmm6
vpmovsxbw %xmm6, %ymm6
vmovdqu %xmm4, %xmm7
vpmovsxbw %xmm7, %ymm7
vextracti128 $1, %ymm4, %xmm4
vpmovsxbw %xmm4, %ymm4
vmovdqu %ymm5, 256(%rax)
vmovdqu %ymm7, 288(%rax)
vmovdqu %ymm6, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu 96(%rsp), %ymm4
vpsrlw $1, %ymm4, %ymm5
vpand %ymm4, %ymm0, %ymm4
vpand %ymm5, %ymm0, %ymm0
vpaddb %ymm0, %ymm4, %ymm0
vpsrlw $2, %ymm0, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpand %ymm4, %ymm1, %ymm4
vpaddb %ymm1, %ymm0, %ymm0
vpsubb %ymm4, %ymm0, %ymm0
vpsrlw $4, %ymm0, %ymm1
vpand %ymm0, %ymm3, %ymm0
vpand %ymm1, %ymm3, %ymm1
vpsubb %ymm2, %ymm0, %ymm0
vpsubb %ymm2, %ymm1, %ymm1
vpunpcklbw %ymm1, %ymm0, %ymm2
vpunpckhbw %ymm1, %ymm0, %ymm0
vmovdqu %xmm2, %xmm1
vpmovsxbw %xmm1, %ymm1
vextracti128 $1, %ymm2, %xmm2
vpmovsxbw %xmm2, %ymm2
vmovdqu %xmm0, %xmm3
vpmovsxbw %xmm3, %ymm3
vextracti128 $1, %ymm0, %xmm0
vpmovsxbw %xmm0, %ymm0
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm3, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
jmp *192(%rsp)
L_poly_frommsg_1$1:
leaq glob_data + 256(%rip), %rdi
vmovdqu (%rdi), %ymm0
vbroadcasti128 glob_data + 4112(%rip), %ymm1
vbroadcasti128 glob_data + 4096(%rip), %ymm2
vmovdqu (%rax), %ymm3
vpshufd $0, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, (%rcx)
vmovdqu %ymm8, 32(%rcx)
vmovdqu %ymm6, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vpshufd $85, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 64(%rcx)
vmovdqu %ymm8, 96(%rcx)
vmovdqu %ymm6, 320(%rcx)
vmovdqu %ymm4, 352(%rcx)
vpshufd $-86, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 128(%rcx)
vmovdqu %ymm8, 160(%rcx)
vmovdqu %ymm6, 384(%rcx)
vmovdqu %ymm4, 416(%rcx)
vpshufd $-1, %ymm3, %ymm3
vpsllvd %ymm1, %ymm3, %ymm1
vpshufb %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm1, %ymm2
vpsllw $8, %ymm1, %ymm3
vpsllw $4, %ymm1, %ymm4
vpsraw $15, %ymm2, %ymm2
vpsraw $15, %ymm3, %ymm3
vpsraw $15, %ymm4, %ymm4
vpsraw $15, %ymm1, %ymm1
vpand %ymm0, %ymm2, %ymm2
vpand %ymm0, %ymm3, %ymm3
vpand %ymm0, %ymm4, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm3, %ymm2, %ymm1
vpunpckhqdq %ymm3, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm4, %ymm3
vpunpckhqdq %ymm0, %ymm4, %ymm0
vperm2i128 $32, %ymm3, %ymm1, %ymm4
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vmovdqu %ymm4, 192(%rcx)
vmovdqu %ymm3, 224(%rcx)
vmovdqu %ymm1, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_frommsg$1:
leaq glob_data + 256(%rip), %rax
vmovdqu (%rax), %ymm0
vbroadcasti128 glob_data + 4112(%rip), %ymm1
vbroadcasti128 glob_data + 4096(%rip), %ymm2
vmovdqu (%rcx), %ymm3
vpshufd $0, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, (%rdx)
vmovdqu %ymm8, 32(%rdx)
vmovdqu %ymm6, 256(%rdx)
vmovdqu %ymm4, 288(%rdx)
vpshufd $85, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 64(%rdx)
vmovdqu %ymm8, 96(%rdx)
vmovdqu %ymm6, 320(%rdx)
vmovdqu %ymm4, 352(%rdx)
vpshufd $-86, %ymm3, %ymm4
vpsllvd %ymm1, %ymm4, %ymm4
vpshufb %ymm2, %ymm4, %ymm4
vpsllw $12, %ymm4, %ymm5
vpsllw $8, %ymm4, %ymm6
vpsllw $4, %ymm4, %ymm7
vpsraw $15, %ymm5, %ymm5
vpsraw $15, %ymm6, %ymm6
vpsraw $15, %ymm7, %ymm7
vpsraw $15, %ymm4, %ymm4
vpand %ymm0, %ymm5, %ymm5
vpand %ymm0, %ymm6, %ymm6
vpand %ymm0, %ymm7, %ymm7
vpand %ymm0, %ymm4, %ymm4
vpunpcklqdq %ymm6, %ymm5, %ymm8
vpunpckhqdq %ymm6, %ymm5, %ymm5
vpunpcklqdq %ymm4, %ymm7, %ymm6
vpunpckhqdq %ymm4, %ymm7, %ymm4
vperm2i128 $32, %ymm6, %ymm8, %ymm7
vperm2i128 $49, %ymm6, %ymm8, %ymm6
vperm2i128 $32, %ymm4, %ymm5, %ymm8
vperm2i128 $49, %ymm4, %ymm5, %ymm4
vmovdqu %ymm7, 128(%rdx)
vmovdqu %ymm8, 160(%rdx)
vmovdqu %ymm6, 384(%rdx)
vmovdqu %ymm4, 416(%rdx)
vpshufd $-1, %ymm3, %ymm3
vpsllvd %ymm1, %ymm3, %ymm1
vpshufb %ymm2, %ymm1, %ymm1
vpsllw $12, %ymm1, %ymm2
vpsllw $8, %ymm1, %ymm3
vpsllw $4, %ymm1, %ymm4
vpsraw $15, %ymm2, %ymm2
vpsraw $15, %ymm3, %ymm3
vpsraw $15, %ymm4, %ymm4
vpsraw $15, %ymm1, %ymm1
vpand %ymm0, %ymm2, %ymm2
vpand %ymm0, %ymm3, %ymm3
vpand %ymm0, %ymm4, %ymm4
vpand %ymm0, %ymm1, %ymm0
vpunpcklqdq %ymm3, %ymm2, %ymm1
vpunpckhqdq %ymm3, %ymm2, %ymm2
vpunpcklqdq %ymm0, %ymm4, %ymm3
vpunpckhqdq %ymm0, %ymm4, %ymm0
vperm2i128 $32, %ymm3, %ymm1, %ymm4
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vmovdqu %ymm4, 192(%rdx)
vmovdqu %ymm3, 224(%rdx)
vmovdqu %ymm1, 448(%rdx)
vmovdqu %ymm0, 480(%rdx)
jmp *%rsi
L_poly_frommont$1:
leaq glob_data + 448(%rip), %rcx
vmovdqu (%rcx), %ymm0
leaq glob_data + 416(%rip), %rcx
vmovdqu (%rcx), %ymm1
leaq glob_data + 160(%rip), %rcx
vmovdqu (%rcx), %ymm2
vmovdqu (%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, (%rax)
vmovdqu 32(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 32(%rax)
vmovdqu 64(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 64(%rax)
vmovdqu 96(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 96(%rax)
vmovdqu 128(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 128(%rax)
vmovdqu 160(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 160(%rax)
vmovdqu 192(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 192(%rax)
vmovdqu 224(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 224(%rax)
vmovdqu 256(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 256(%rax)
vmovdqu 288(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 288(%rax)
vmovdqu 320(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 320(%rax)
vmovdqu 352(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 352(%rax)
vmovdqu 384(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 384(%rax)
vmovdqu 416(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 416(%rax)
vmovdqu 448(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm3
vpmullw %ymm1, %ymm3, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm4, %ymm3
vmovdqu %ymm3, 448(%rax)
vmovdqu 480(%rax), %ymm3
vpmulhw %ymm2, %ymm3, %ymm4
vpmullw %ymm2, %ymm3, %ymm2
vpmullw %ymm1, %ymm2, %ymm1
vpmulhw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 480(%rax)
jmp *%rdx
L_poly_frombytes$1:
leaq glob_data + 288(%rip), %r9
vmovdqu (%r9), %ymm0
vmovdqu (%rdi), %ymm1
vmovdqu 32(%rdi), %ymm2
vmovdqu 64(%rdi), %ymm3
vmovdqu 96(%rdi), %ymm4
vmovdqu 128(%rdi), %ymm5
vmovdqu 160(%rdi), %ymm6
vperm2i128 $32, %ymm4, %ymm1, %ymm7
vperm2i128 $49, %ymm4, %ymm1, %ymm4
vperm2i128 $32, %ymm5, %ymm2, %ymm8
vperm2i128 $49, %ymm5, %ymm2, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm5
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vpunpcklqdq %ymm1, %ymm7, %ymm6
vpunpckhqdq %ymm1, %ymm7, %ymm1
vpunpcklqdq %ymm5, %ymm4, %ymm2
vpunpckhqdq %ymm5, %ymm4, %ymm5
vpunpcklqdq %ymm3, %ymm8, %ymm7
vpunpckhqdq %ymm3, %ymm8, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm7, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm7, %ymm1, %ymm7
vmovsldup %ymm3, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm1
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm7, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm4, %ymm4
vpslld $16, %ymm1, %ymm7
vpblendw $-86, %ymm7, %ymm5, %ymm7
vpsrld $16, %ymm5, %ymm5
vpblendw $-86, %ymm1, %ymm5, %ymm1
vpslld $16, %ymm2, %ymm5
vpblendw $-86, %ymm5, %ymm6, %ymm5
vpsrld $16, %ymm6, %ymm6
vpblendw $-86, %ymm2, %ymm6, %ymm2
vpsrlw $12, %ymm3, %ymm6
vpsllw $4, %ymm4, %ymm8
vpor %ymm8, %ymm6, %ymm6
vpand %ymm3, %ymm0, %ymm3
vpand %ymm6, %ymm0, %ymm6
vpsrlw $8, %ymm4, %ymm4
vpsllw $8, %ymm7, %ymm8
vpor %ymm8, %ymm4, %ymm4
vpand %ymm4, %ymm0, %ymm4
vpsrlw $4, %ymm7, %ymm7
vpand %ymm7, %ymm0, %ymm7
vpsrlw $12, %ymm1, %ymm8
vpsllw $4, %ymm5, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpand %ymm1, %ymm0, %ymm1
vpand %ymm8, %ymm0, %ymm8
vpsrlw $8, %ymm5, %ymm5
vpsllw $8, %ymm2, %ymm9
vpor %ymm9, %ymm5, %ymm5
vpand %ymm5, %ymm0, %ymm5
vpsrlw $4, %ymm2, %ymm2
vpand %ymm2, %ymm0, %ymm2
vmovdqu %ymm3, (%r8)
vmovdqu %ymm6, 32(%r8)
vmovdqu %ymm4, 64(%r8)
vmovdqu %ymm7, 96(%r8)
vmovdqu %ymm1, 128(%r8)
vmovdqu %ymm8, 160(%r8)
vmovdqu %ymm5, 192(%r8)
vmovdqu %ymm2, 224(%r8)
vmovdqu 192(%rdi), %ymm1
vmovdqu 224(%rdi), %ymm2
vmovdqu 256(%rdi), %ymm3
vmovdqu 288(%rdi), %ymm4
vmovdqu 320(%rdi), %ymm5
vmovdqu 352(%rdi), %ymm6
vperm2i128 $32, %ymm4, %ymm1, %ymm7
vperm2i128 $49, %ymm4, %ymm1, %ymm4
vperm2i128 $32, %ymm5, %ymm2, %ymm8
vperm2i128 $49, %ymm5, %ymm2, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm5
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vpunpcklqdq %ymm1, %ymm7, %ymm6
vpunpckhqdq %ymm1, %ymm7, %ymm1
vpunpcklqdq %ymm5, %ymm4, %ymm2
vpunpckhqdq %ymm5, %ymm4, %ymm5
vpunpcklqdq %ymm3, %ymm8, %ymm7
vpunpckhqdq %ymm3, %ymm8, %ymm3
vmovsldup %ymm5, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm5, %ymm6, %ymm5
vmovsldup %ymm7, %ymm6
vpblendd $-86, %ymm6, %ymm1, %ymm6
vpsrlq $32, %ymm1, %ymm1
vpblendd $-86, %ymm7, %ymm1, %ymm7
vmovsldup %ymm3, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm1
vpsrlq $32, %ymm2, %ymm2
vpblendd $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm7, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm7, %ymm4, %ymm4
vpslld $16, %ymm1, %ymm7
vpblendw $-86, %ymm7, %ymm5, %ymm7
vpsrld $16, %ymm5, %ymm5
vpblendw $-86, %ymm1, %ymm5, %ymm1
vpslld $16, %ymm2, %ymm5
vpblendw $-86, %ymm5, %ymm6, %ymm5
vpsrld $16, %ymm6, %ymm6
vpblendw $-86, %ymm2, %ymm6, %ymm2
vpsrlw $12, %ymm3, %ymm6
vpsllw $4, %ymm4, %ymm8
vpor %ymm8, %ymm6, %ymm6
vpand %ymm3, %ymm0, %ymm3
vpand %ymm6, %ymm0, %ymm6
vpsrlw $8, %ymm4, %ymm4
vpsllw $8, %ymm7, %ymm8
vpor %ymm8, %ymm4, %ymm4
vpand %ymm4, %ymm0, %ymm4
vpsrlw $4, %ymm7, %ymm7
vpand %ymm7, %ymm0, %ymm7
vpsrlw $12, %ymm1, %ymm8
vpsllw $4, %ymm5, %ymm9
vpor %ymm9, %ymm8, %ymm8
vpand %ymm1, %ymm0, %ymm1
vpand %ymm8, %ymm0, %ymm8
vpsrlw $8, %ymm5, %ymm5
vpsllw $8, %ymm2, %ymm9
vpor %ymm9, %ymm5, %ymm5
vpand %ymm5, %ymm0, %ymm5
vpsrlw $4, %ymm2, %ymm2
vpand %ymm2, %ymm0, %ymm0
vmovdqu %ymm3, 256(%r8)
vmovdqu %ymm6, 288(%r8)
vmovdqu %ymm4, 320(%r8)
vmovdqu %ymm7, 352(%r8)
vmovdqu %ymm1, 384(%r8)
vmovdqu %ymm8, 416(%r8)
vmovdqu %ymm5, 448(%r8)
vmovdqu %ymm0, 480(%r8)
jmp *%r10
L_poly_decompress$1:
leaq glob_data + 448(%rip), %rdi
vmovdqu (%rdi), %ymm0
leaq glob_data + 96(%rip), %rdi
vmovdqu (%rdi), %ymm1
vpbroadcastd glob_data + 6412(%rip), %ymm2
vpbroadcastd glob_data + 6408(%rip), %ymm3
vpxor %ymm4, %ymm4, %ymm4
movq (%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, (%rcx)
movq 8(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 32(%rcx)
movq 16(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 64(%rcx)
movq 24(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 96(%rcx)
movq 32(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 128(%rcx)
movq 40(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 160(%rcx)
movq 48(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 192(%rcx)
movq 56(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 224(%rcx)
movq 64(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 256(%rcx)
movq 72(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 288(%rcx)
movq 80(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 320(%rcx)
movq 88(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 352(%rcx)
movq 96(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 384(%rcx)
movq 104(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 416(%rcx)
movq 112(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm4
vpand %ymm2, %ymm4, %ymm4
vpmullw %ymm3, %ymm4, %ymm4
vpmulhrsw %ymm0, %ymm4, %ymm4
vmovdqu %ymm4, 448(%rcx)
movq 120(%rsi), %xmm4
vmovdqu %xmm4, (%rsp)
vbroadcasti128 (%rsp), %ymm4
vpshufb %ymm1, %ymm4, %ymm1
vpand %ymm2, %ymm1, %ymm1
vpmullw %ymm3, %ymm1, %ymm1
vpmulhrsw %ymm0, %ymm1, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_compress_1$1:
leaq L_poly_compress_1$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_compress_1$2:
leaq glob_data + 384(%rip), %rdx
vmovdqu (%rdx), %ymm0
vpbroadcastw glob_data + 6428(%rip), %ymm1
vpbroadcastw glob_data + 6426(%rip), %ymm2
vpbroadcastw glob_data + 6424(%rip), %ymm3
vmovdqu glob_data + 128(%rip), %ymm4
vmovdqu (%rcx), %ymm5
vmovdqu 32(%rcx), %ymm6
vmovdqu 64(%rcx), %ymm7
vmovdqu 96(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, (%rax)
vmovdqu 128(%rcx), %ymm5
vmovdqu 160(%rcx), %ymm6
vmovdqu 192(%rcx), %ymm7
vmovdqu 224(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 32(%rax)
vmovdqu 256(%rcx), %ymm5
vmovdqu 288(%rcx), %ymm6
vmovdqu 320(%rcx), %ymm7
vmovdqu 352(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 64(%rax)
vmovdqu 384(%rcx), %ymm5
vmovdqu 416(%rcx), %ymm6
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm0
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm0, %ymm0
vpand %ymm2, %ymm5, %ymm1
vpand %ymm2, %ymm6, %ymm5
vpand %ymm2, %ymm7, %ymm6
vpand %ymm2, %ymm0, %ymm0
vpackuswb %ymm5, %ymm1, %ymm1
vpackuswb %ymm0, %ymm6, %ymm0
vpmaddubsw %ymm3, %ymm1, %ymm1
vpmaddubsw %ymm3, %ymm0, %ymm0
vpackuswb %ymm0, %ymm1, %ymm0
vpermd %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 96(%rax)
jmp *%rsi
L_poly_compress$1:
leaq L_poly_compress$2(%rip), %r8
jmp L_poly_csubq$1
L_poly_compress$2:
leaq glob_data + 384(%rip), %rdx
vmovdqu (%rdx), %ymm0
vpbroadcastw glob_data + 6428(%rip), %ymm1
vpbroadcastw glob_data + 6426(%rip), %ymm2
vpbroadcastw glob_data + 6424(%rip), %ymm3
vmovdqu glob_data + 128(%rip), %ymm4
vmovdqu (%rcx), %ymm5
vmovdqu 32(%rcx), %ymm6
vmovdqu 64(%rcx), %ymm7
vmovdqu 96(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, (%rax)
vmovdqu 128(%rcx), %ymm5
vmovdqu 160(%rcx), %ymm6
vmovdqu 192(%rcx), %ymm7
vmovdqu 224(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 32(%rax)
vmovdqu 256(%rcx), %ymm5
vmovdqu 288(%rcx), %ymm6
vmovdqu 320(%rcx), %ymm7
vmovdqu 352(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm8
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm8, %ymm8
vpand %ymm2, %ymm5, %ymm5
vpand %ymm2, %ymm6, %ymm6
vpand %ymm2, %ymm7, %ymm7
vpand %ymm2, %ymm8, %ymm8
vpackuswb %ymm6, %ymm5, %ymm5
vpackuswb %ymm8, %ymm7, %ymm6
vpmaddubsw %ymm3, %ymm5, %ymm5
vpmaddubsw %ymm3, %ymm6, %ymm6
vpackuswb %ymm6, %ymm5, %ymm5
vpermd %ymm5, %ymm4, %ymm5
vmovdqu %ymm5, 64(%rax)
vmovdqu 384(%rcx), %ymm5
vmovdqu 416(%rcx), %ymm6
vmovdqu 448(%rcx), %ymm7
vmovdqu 480(%rcx), %ymm8
vpmulhw %ymm0, %ymm5, %ymm5
vpmulhw %ymm0, %ymm6, %ymm6
vpmulhw %ymm0, %ymm7, %ymm7
vpmulhw %ymm0, %ymm8, %ymm0
vpmulhrsw %ymm1, %ymm5, %ymm5
vpmulhrsw %ymm1, %ymm6, %ymm6
vpmulhrsw %ymm1, %ymm7, %ymm7
vpmulhrsw %ymm1, %ymm0, %ymm0
vpand %ymm2, %ymm5, %ymm1
vpand %ymm2, %ymm6, %ymm5
vpand %ymm2, %ymm7, %ymm6
vpand %ymm2, %ymm0, %ymm0
vpackuswb %ymm5, %ymm1, %ymm1
vpackuswb %ymm0, %ymm6, %ymm0
vpmaddubsw %ymm3, %ymm1, %ymm1
vpmaddubsw %ymm3, %ymm0, %ymm0
vpackuswb %ymm0, %ymm1, %ymm0
vpermd %ymm0, %ymm4, %ymm0
vmovdqu %ymm0, 96(%rax)
jmp *%rsi
L_poly_basemul$1:
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu glob_data + 416(%rip), %ymm1
vmovdqu glob_data + 1552(%rip), %ymm2
vmovdqu glob_data + 1584(%rip), %ymm3
vmovdqu (%rsi), %ymm4
vmovdqu 32(%rsi), %ymm5
vmovdqu (%rdi), %ymm6
vmovdqu 32(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, (%rcx)
vmovdqu %ymm4, 32(%rcx)
vmovdqu 64(%rsi), %ymm4
vmovdqu 96(%rsi), %ymm5
vmovdqu 64(%rdi), %ymm6
vmovdqu 96(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 64(%rcx)
vmovdqu %ymm2, 96(%rcx)
vmovdqu glob_data + 1616(%rip), %ymm2
vmovdqu glob_data + 1648(%rip), %ymm3
vmovdqu 128(%rsi), %ymm4
vmovdqu 160(%rsi), %ymm5
vmovdqu 128(%rdi), %ymm6
vmovdqu 160(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 128(%rcx)
vmovdqu %ymm4, 160(%rcx)
vmovdqu 192(%rsi), %ymm4
vmovdqu 224(%rsi), %ymm5
vmovdqu 192(%rdi), %ymm6
vmovdqu 224(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 192(%rcx)
vmovdqu %ymm2, 224(%rcx)
vmovdqu glob_data + 1944(%rip), %ymm2
vmovdqu glob_data + 1976(%rip), %ymm3
vmovdqu 256(%rsi), %ymm4
vmovdqu 288(%rsi), %ymm5
vmovdqu 256(%rdi), %ymm6
vmovdqu 288(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 256(%rcx)
vmovdqu %ymm4, 288(%rcx)
vmovdqu 320(%rsi), %ymm4
vmovdqu 352(%rsi), %ymm5
vmovdqu 320(%rdi), %ymm6
vmovdqu 352(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm4
vpmulhw %ymm0, %ymm4, %ymm4
vpsubw %ymm4, %ymm2, %ymm2
vmovdqu %ymm3, 320(%rcx)
vmovdqu %ymm2, 352(%rcx)
vmovdqu glob_data + 2008(%rip), %ymm2
vmovdqu glob_data + 2040(%rip), %ymm3
vmovdqu 384(%rsi), %ymm4
vmovdqu 416(%rsi), %ymm5
vmovdqu 384(%rdi), %ymm6
vmovdqu 416(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm8
vpmulhw %ymm5, %ymm3, %ymm9
vpmulhw %ymm0, %ymm8, %ymm8
vpsubw %ymm8, %ymm9, %ymm8
vpmullw %ymm6, %ymm4, %ymm10
vpmulhw %ymm6, %ymm4, %ymm11
vpunpcklwd %ymm11, %ymm10, %ymm9
vpunpckhwd %ymm11, %ymm10, %ymm10
vpmullw %ymm7, %ymm4, %ymm12
vpmulhw %ymm7, %ymm4, %ymm4
vpunpcklwd %ymm4, %ymm12, %ymm11
vpunpckhwd %ymm4, %ymm12, %ymm4
vpmullw %ymm6, %ymm5, %ymm12
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm12, %ymm5
vpunpckhwd %ymm6, %ymm12, %ymm6
vpmullw %ymm7, %ymm8, %ymm12
vpmulhw %ymm7, %ymm8, %ymm7
vpunpcklwd %ymm7, %ymm12, %ymm8
vpunpckhwd %ymm7, %ymm12, %ymm12
vpaddd %ymm8, %ymm9, %ymm7
vpaddd %ymm12, %ymm10, %ymm8
vpaddd %ymm11, %ymm5, %ymm5
vpaddd %ymm4, %ymm6, %ymm4
vpxor %ymm9, %ymm9, %ymm9
vpblendw $-86, %ymm9, %ymm7, %ymm6
vpblendw $-86, %ymm9, %ymm8, %ymm10
vpackusdw %ymm10, %ymm6, %ymm6
vpsrld $16, %ymm7, %ymm7
vpsrld $16, %ymm8, %ymm8
vpackusdw %ymm8, %ymm7, %ymm7
vpblendw $-86, %ymm9, %ymm5, %ymm8
vpblendw $-86, %ymm9, %ymm4, %ymm9
vpackusdw %ymm9, %ymm8, %ymm8
vpsrld $16, %ymm5, %ymm5
vpsrld $16, %ymm4, %ymm4
vpackusdw %ymm4, %ymm5, %ymm4
vpmullw %ymm1, %ymm6, %ymm5
vpmulhw %ymm0, %ymm5, %ymm5
vpsubw %ymm5, %ymm7, %ymm5
vpmullw %ymm1, %ymm8, %ymm6
vpmulhw %ymm0, %ymm6, %ymm6
vpsubw %ymm6, %ymm4, %ymm4
vmovdqu %ymm5, 384(%rcx)
vmovdqu %ymm4, 416(%rcx)
vmovdqu 448(%rsi), %ymm4
vmovdqu 480(%rsi), %ymm5
vmovdqu 448(%rdi), %ymm6
vmovdqu 480(%rdi), %ymm7
vpmullw %ymm5, %ymm2, %ymm2
vpmulhw %ymm5, %ymm3, %ymm3
vpmulhw %ymm0, %ymm2, %ymm2
vpsubw %ymm2, %ymm3, %ymm2
vpmullw %ymm6, %ymm4, %ymm8
vpmulhw %ymm6, %ymm4, %ymm9
vpunpcklwd %ymm9, %ymm8, %ymm3
vpunpckhwd %ymm9, %ymm8, %ymm8
vpmullw %ymm7, %ymm4, %ymm9
vpmulhw %ymm7, %ymm4, %ymm10
vpunpcklwd %ymm10, %ymm9, %ymm4
vpunpckhwd %ymm10, %ymm9, %ymm9
vpmullw %ymm6, %ymm5, %ymm10
vpmulhw %ymm6, %ymm5, %ymm6
vpunpcklwd %ymm6, %ymm10, %ymm5
vpunpckhwd %ymm6, %ymm10, %ymm6
vpmullw %ymm7, %ymm2, %ymm10
vpmulhw %ymm7, %ymm2, %ymm2
vpunpcklwd %ymm2, %ymm10, %ymm7
vpunpckhwd %ymm2, %ymm10, %ymm2
vpsubd %ymm7, %ymm3, %ymm7
vpsubd %ymm2, %ymm8, %ymm8
vpaddd %ymm4, %ymm5, %ymm2
vpaddd %ymm9, %ymm6, %ymm3
vpxor %ymm5, %ymm5, %ymm5
vpblendw $-86, %ymm5, %ymm7, %ymm4
vpblendw $-86, %ymm5, %ymm8, %ymm6
vpackusdw %ymm6, %ymm4, %ymm4
vpsrld $16, %ymm7, %ymm6
vpsrld $16, %ymm8, %ymm7
vpackusdw %ymm7, %ymm6, %ymm6
vpblendw $-86, %ymm5, %ymm2, %ymm7
vpblendw $-86, %ymm5, %ymm3, %ymm5
vpackusdw %ymm5, %ymm7, %ymm5
vpsrld $16, %ymm2, %ymm2
vpsrld $16, %ymm3, %ymm3
vpackusdw %ymm3, %ymm2, %ymm2
vpmullw %ymm1, %ymm4, %ymm3
vpmulhw %ymm0, %ymm3, %ymm3
vpsubw %ymm3, %ymm6, %ymm3
vpmullw %ymm1, %ymm5, %ymm1
vpmulhw %ymm0, %ymm1, %ymm0
vpsubw %ymm0, %ymm2, %ymm0
vmovdqu %ymm3, 448(%rcx)
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_csubq$1:
vmovdqu glob_data + 448(%rip), %ymm0
vmovdqu (%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, (%rcx)
vmovdqu 32(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 32(%rcx)
vmovdqu 64(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 64(%rcx)
vmovdqu 96(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 96(%rcx)
vmovdqu 128(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 128(%rcx)
vmovdqu 160(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 160(%rcx)
vmovdqu 192(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 192(%rcx)
vmovdqu 224(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 224(%rcx)
vmovdqu 256(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 256(%rcx)
vmovdqu 288(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 288(%rcx)
vmovdqu 320(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 320(%rcx)
vmovdqu 352(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 352(%rcx)
vmovdqu 384(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 384(%rcx)
vmovdqu 416(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 416(%rcx)
vmovdqu 448(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm2
vpaddw %ymm1, %ymm2, %ymm1
vmovdqu %ymm1, 448(%rcx)
vmovdqu 480(%rcx), %ymm1
vpsubw %ymm0, %ymm1, %ymm1
vpsraw $15, %ymm1, %ymm2
vpand %ymm0, %ymm2, %ymm0
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%r8
L_poly_add2$1:
vmovdqu (%rcx), %ymm0
vmovdqu (%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, (%rcx)
vmovdqu 32(%rcx), %ymm0
vmovdqu 32(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rcx)
vmovdqu 64(%rcx), %ymm0
vmovdqu 64(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rcx)
vmovdqu 96(%rcx), %ymm0
vmovdqu 96(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rcx)
vmovdqu 128(%rcx), %ymm0
vmovdqu 128(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rcx)
vmovdqu 160(%rcx), %ymm0
vmovdqu 160(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rcx)
vmovdqu 192(%rcx), %ymm0
vmovdqu 192(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rcx)
vmovdqu 224(%rcx), %ymm0
vmovdqu 224(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rcx)
vmovdqu 256(%rcx), %ymm0
vmovdqu 256(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rcx)
vmovdqu 288(%rcx), %ymm0
vmovdqu 288(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rcx)
vmovdqu 320(%rcx), %ymm0
vmovdqu 320(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rcx)
vmovdqu 352(%rcx), %ymm0
vmovdqu 352(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rcx)
vmovdqu 384(%rcx), %ymm0
vmovdqu 384(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rcx)
vmovdqu 416(%rcx), %ymm0
vmovdqu 416(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rcx)
vmovdqu 448(%rcx), %ymm0
vmovdqu 448(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rcx)
vmovdqu 480(%rcx), %ymm0
vmovdqu 480(%rsi), %ymm1
vpaddw %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rcx)
jmp *%rdi
L_nttunpack$1:
vmovdqu (%rax), %ymm1
vmovdqu 32(%rax), %ymm3
vmovdqu 64(%rax), %ymm4
vmovdqu 96(%rax), %ymm5
vmovdqu 128(%rax), %ymm2
vmovdqu 160(%rax), %ymm6
vmovdqu 192(%rax), %ymm7
vmovdqu 224(%rax), %ymm8
vperm2i128 $32, %ymm2, %ymm1, %ymm0
vperm2i128 $49, %ymm2, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm2
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vperm2i128 $32, %ymm7, %ymm4, %ymm6
vperm2i128 $49, %ymm7, %ymm4, %ymm7
vperm2i128 $32, %ymm8, %ymm5, %ymm9
vperm2i128 $49, %ymm8, %ymm5, %ymm10
vpunpcklqdq %ymm6, %ymm0, %ymm4
vpunpckhqdq %ymm6, %ymm0, %ymm5
vpunpcklqdq %ymm7, %ymm1, %ymm6
vpunpckhqdq %ymm7, %ymm1, %ymm7
vpunpcklqdq %ymm9, %ymm2, %ymm0
vpunpckhqdq %ymm9, %ymm2, %ymm2
vpunpcklqdq %ymm10, %ymm3, %ymm8
vpunpckhqdq %ymm10, %ymm3, %ymm3
vmovsldup %ymm0, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm9
vpsrlq $32, %ymm4, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vmovsldup %ymm2, %ymm1
vpblendd $-86, %ymm1, %ymm5, %ymm1
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm2, %ymm4, %ymm2
vmovsldup %ymm8, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm5
vpblendd $-86, %ymm8, %ymm5, %ymm5
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm7, %ymm6
vpsrlq $32, %ymm7, %ymm7
vpblendd $-86, %ymm3, %ymm7, %ymm3
vpslld $16, %ymm4, %ymm7
vpblendw $-86, %ymm7, %ymm9, %ymm7
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm4, %ymm8, %ymm4
vpslld $16, %ymm5, %ymm8
vpblendw $-86, %ymm8, %ymm0, %ymm8
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm5, %ymm0, %ymm0
vpslld $16, %ymm6, %ymm5
vpblendw $-86, %ymm5, %ymm1, %ymm5
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm6, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm6
vpblendw $-86, %ymm6, %ymm2, %ymm6
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vmovdqu %ymm7, (%rax)
vmovdqu %ymm4, 32(%rax)
vmovdqu %ymm8, 64(%rax)
vmovdqu %ymm0, 96(%rax)
vmovdqu %ymm5, 128(%rax)
vmovdqu %ymm1, 160(%rax)
vmovdqu %ymm6, 192(%rax)
vmovdqu %ymm2, 224(%rax)
vmovdqu 256(%rax), %ymm1
vmovdqu 288(%rax), %ymm3
vmovdqu 320(%rax), %ymm4
vmovdqu 352(%rax), %ymm5
vmovdqu 384(%rax), %ymm2
vmovdqu 416(%rax), %ymm6
vmovdqu 448(%rax), %ymm7
vmovdqu 480(%rax), %ymm8
vperm2i128 $32, %ymm2, %ymm1, %ymm0
vperm2i128 $49, %ymm2, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm3, %ymm2
vperm2i128 $49, %ymm6, %ymm3, %ymm3
vperm2i128 $32, %ymm7, %ymm4, %ymm6
vperm2i128 $49, %ymm7, %ymm4, %ymm7
vperm2i128 $32, %ymm8, %ymm5, %ymm9
vperm2i128 $49, %ymm8, %ymm5, %ymm10
vpunpcklqdq %ymm6, %ymm0, %ymm4
vpunpckhqdq %ymm6, %ymm0, %ymm5
vpunpcklqdq %ymm7, %ymm1, %ymm6
vpunpckhqdq %ymm7, %ymm1, %ymm7
vpunpcklqdq %ymm9, %ymm2, %ymm0
vpunpckhqdq %ymm9, %ymm2, %ymm2
vpunpcklqdq %ymm10, %ymm3, %ymm8
vpunpckhqdq %ymm10, %ymm3, %ymm3
vmovsldup %ymm0, %ymm1
vpblendd $-86, %ymm1, %ymm4, %ymm9
vpsrlq $32, %ymm4, %ymm1
vpblendd $-86, %ymm0, %ymm1, %ymm0
vmovsldup %ymm2, %ymm1
vpblendd $-86, %ymm1, %ymm5, %ymm1
vpsrlq $32, %ymm5, %ymm4
vpblendd $-86, %ymm2, %ymm4, %ymm2
vmovsldup %ymm8, %ymm4
vpblendd $-86, %ymm4, %ymm6, %ymm4
vpsrlq $32, %ymm6, %ymm5
vpblendd $-86, %ymm8, %ymm5, %ymm5
vmovsldup %ymm3, %ymm6
vpblendd $-86, %ymm6, %ymm7, %ymm6
vpsrlq $32, %ymm7, %ymm7
vpblendd $-86, %ymm3, %ymm7, %ymm3
vpslld $16, %ymm4, %ymm7
vpblendw $-86, %ymm7, %ymm9, %ymm7
vpsrld $16, %ymm9, %ymm8
vpblendw $-86, %ymm4, %ymm8, %ymm4
vpslld $16, %ymm5, %ymm8
vpblendw $-86, %ymm8, %ymm0, %ymm8
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm5, %ymm0, %ymm0
vpslld $16, %ymm6, %ymm5
vpblendw $-86, %ymm5, %ymm1, %ymm5
vpsrld $16, %ymm1, %ymm1
vpblendw $-86, %ymm6, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm6
vpblendw $-86, %ymm6, %ymm2, %ymm6
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vmovdqu %ymm7, 256(%rax)
vmovdqu %ymm4, 288(%rax)
vmovdqu %ymm8, 320(%rax)
vmovdqu %ymm0, 352(%rax)
vmovdqu %ymm5, 384(%rax)
vmovdqu %ymm1, 416(%rax)
vmovdqu %ymm6, 448(%rax)
vmovdqu %ymm2, 480(%rax)
jmp *%rcx
L_nttpack$1:
vmovdqu (%rax), %ymm0
vmovdqu 32(%rax), %ymm1
vmovdqu 64(%rax), %ymm8
vmovdqu 96(%rax), %ymm9
vmovdqu 128(%rax), %ymm2
vmovdqu 160(%rax), %ymm3
vmovdqu 192(%rax), %ymm4
vmovdqu 224(%rax), %ymm5
vpslld $16, %ymm1, %ymm6
vpblendw $-86, %ymm6, %ymm0, %ymm6
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm1, %ymm0, %ymm0
vpslld $16, %ymm9, %ymm1
vpblendw $-86, %ymm1, %ymm8, %ymm7
vpsrld $16, %ymm8, %ymm1
vpblendw $-86, %ymm9, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm5, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm5, %ymm4, %ymm4
vmovsldup %ymm7, %ymm5
vpblendd $-86, %ymm5, %ymm6, %ymm5
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm6
vmovsldup %ymm3, %ymm7
vpblendd $-86, %ymm7, %ymm8, %ymm7
vpsrlq $32, %ymm8, %ymm8
vpblendd $-86, %ymm3, %ymm8, %ymm3
vmovsldup %ymm1, %ymm8
vpblendd $-86, %ymm8, %ymm0, %ymm8
vpsrlq $32, %ymm0, %ymm0
vpblendd $-86, %ymm1, %ymm0, %ymm0
vmovsldup %ymm4, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm1
vpblendd $-86, %ymm4, %ymm1, %ymm10
vpunpcklqdq %ymm7, %ymm5, %ymm1
vpunpckhqdq %ymm7, %ymm5, %ymm2
vpunpcklqdq %ymm9, %ymm8, %ymm5
vpunpckhqdq %ymm9, %ymm8, %ymm4
vpunpcklqdq %ymm3, %ymm6, %ymm7
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm10, %ymm0, %ymm6
vpunpckhqdq %ymm10, %ymm0, %ymm0
vperm2i128 $32, %ymm5, %ymm1, %ymm8
vperm2i128 $49, %ymm5, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm7, %ymm5
vperm2i128 $49, %ymm6, %ymm7, %ymm6
vperm2i128 $32, %ymm4, %ymm2, %ymm7
vperm2i128 $49, %ymm4, %ymm2, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm4
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm8, (%rax)
vmovdqu %ymm5, 32(%rax)
vmovdqu %ymm7, 64(%rax)
vmovdqu %ymm4, 96(%rax)
vmovdqu %ymm1, 128(%rax)
vmovdqu %ymm6, 160(%rax)
vmovdqu %ymm2, 192(%rax)
vmovdqu %ymm0, 224(%rax)
vmovdqu 256(%rax), %ymm0
vmovdqu 288(%rax), %ymm1
vmovdqu 320(%rax), %ymm8
vmovdqu 352(%rax), %ymm9
vmovdqu 384(%rax), %ymm2
vmovdqu 416(%rax), %ymm3
vmovdqu 448(%rax), %ymm4
vmovdqu 480(%rax), %ymm5
vpslld $16, %ymm1, %ymm6
vpblendw $-86, %ymm6, %ymm0, %ymm6
vpsrld $16, %ymm0, %ymm0
vpblendw $-86, %ymm1, %ymm0, %ymm0
vpslld $16, %ymm9, %ymm1
vpblendw $-86, %ymm1, %ymm8, %ymm7
vpsrld $16, %ymm8, %ymm1
vpblendw $-86, %ymm9, %ymm1, %ymm1
vpslld $16, %ymm3, %ymm8
vpblendw $-86, %ymm8, %ymm2, %ymm8
vpsrld $16, %ymm2, %ymm2
vpblendw $-86, %ymm3, %ymm2, %ymm2
vpslld $16, %ymm5, %ymm3
vpblendw $-86, %ymm3, %ymm4, %ymm3
vpsrld $16, %ymm4, %ymm4
vpblendw $-86, %ymm5, %ymm4, %ymm4
vmovsldup %ymm7, %ymm5
vpblendd $-86, %ymm5, %ymm6, %ymm5
vpsrlq $32, %ymm6, %ymm6
vpblendd $-86, %ymm7, %ymm6, %ymm6
vmovsldup %ymm3, %ymm7
vpblendd $-86, %ymm7, %ymm8, %ymm7
vpsrlq $32, %ymm8, %ymm8
vpblendd $-86, %ymm3, %ymm8, %ymm3
vmovsldup %ymm1, %ymm8
vpblendd $-86, %ymm8, %ymm0, %ymm8
vpsrlq $32, %ymm0, %ymm0
vpblendd $-86, %ymm1, %ymm0, %ymm0
vmovsldup %ymm4, %ymm1
vpblendd $-86, %ymm1, %ymm2, %ymm9
vpsrlq $32, %ymm2, %ymm1
vpblendd $-86, %ymm4, %ymm1, %ymm10
vpunpcklqdq %ymm7, %ymm5, %ymm1
vpunpckhqdq %ymm7, %ymm5, %ymm2
vpunpcklqdq %ymm9, %ymm8, %ymm5
vpunpckhqdq %ymm9, %ymm8, %ymm4
vpunpcklqdq %ymm3, %ymm6, %ymm7
vpunpckhqdq %ymm3, %ymm6, %ymm3
vpunpcklqdq %ymm10, %ymm0, %ymm6
vpunpckhqdq %ymm10, %ymm0, %ymm0
vperm2i128 $32, %ymm5, %ymm1, %ymm8
vperm2i128 $49, %ymm5, %ymm1, %ymm1
vperm2i128 $32, %ymm6, %ymm7, %ymm5
vperm2i128 $49, %ymm6, %ymm7, %ymm6
vperm2i128 $32, %ymm4, %ymm2, %ymm7
vperm2i128 $49, %ymm4, %ymm2, %ymm2
vperm2i128 $32, %ymm0, %ymm3, %ymm4
vperm2i128 $49, %ymm0, %ymm3, %ymm0
vmovdqu %ymm8, 256(%rax)
vmovdqu %ymm5, 288(%rax)
vmovdqu %ymm7, 320(%rax)
vmovdqu %ymm4, 352(%rax)
vmovdqu %ymm1, 384(%rax)
vmovdqu %ymm6, 416(%rax)
vmovdqu %ymm2, 448(%rax)
vmovdqu %ymm0, 480(%rax)
jmp *%rcx
L_shake256_absorb4x_33$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 544(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 576(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 608(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 672(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 704(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 736(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 768(%rax)
movq (%rcx), %rbx
xorq %rbx, (%rax)
movq (%rdx), %rbx
xorq %rbx, 8(%rax)
movq (%rsi), %rbx
xorq %rbx, 16(%rax)
movq (%r11), %rbx
xorq %rbx, 24(%rax)
movq 8(%rcx), %rbx
xorq %rbx, 32(%rax)
movq 8(%rdx), %rbx
xorq %rbx, 40(%rax)
movq 8(%rsi), %rbx
xorq %rbx, 48(%rax)
movq 8(%r11), %rbx
xorq %rbx, 56(%rax)
movq 16(%rcx), %rbx
xorq %rbx, 64(%rax)
movq 16(%rdx), %rbx
xorq %rbx, 72(%rax)
movq 16(%rsi), %rbx
xorq %rbx, 80(%rax)
movq 16(%r11), %rbx
xorq %rbx, 88(%rax)
movq 24(%rcx), %rbx
xorq %rbx, 96(%rax)
movq 24(%rdx), %rbx
xorq %rbx, 104(%rax)
movq 24(%rsi), %rbx
xorq %rbx, 112(%rax)
movq 24(%r11), %rbx
xorq %rbx, 120(%rax)
movb 32(%rcx), %cl
xorb %cl, 128(%rax)
xorb $31, 129(%rax)
movb 32(%rdx), %cl
xorb %cl, 136(%rax)
xorb $31, 137(%rax)
movb 32(%rsi), %cl
xorb %cl, 144(%rax)
xorb $31, 145(%rax)
movb 32(%r11), %cl
xorb %cl, 152(%rax)
xorb $31, 153(%rax)
vmovdqu glob_data + 2080(%rip), %ymm0
vmovdqu 512(%rax), %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
jmp *(%rsp)
L_shake128_absorb4x_34$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 32(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 64(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 96(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 128(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 160(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 192(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 224(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 256(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 288(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 320(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 352(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 384(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 416(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 448(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 480(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 512(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 544(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 576(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 608(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 672(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 704(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 736(%rax)
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, 768(%rax)
movq (%rcx), %r8
xorq %r8, (%rax)
movq (%rdx), %r8
xorq %r8, 8(%rax)
movq (%rsi), %r8
xorq %r8, 16(%rax)
movq (%rdi), %r8
xorq %r8, 24(%rax)
movq 8(%rcx), %r8
xorq %r8, 32(%rax)
movq 8(%rdx), %r8
xorq %r8, 40(%rax)
movq 8(%rsi), %r8
xorq %r8, 48(%rax)
movq 8(%rdi), %r8
xorq %r8, 56(%rax)
movq 16(%rcx), %r8
xorq %r8, 64(%rax)
movq 16(%rdx), %r8
xorq %r8, 72(%rax)
movq 16(%rsi), %r8
xorq %r8, 80(%rax)
movq 16(%rdi), %r8
xorq %r8, 88(%rax)
movq 24(%rcx), %r8
xorq %r8, 96(%rax)
movq 24(%rdx), %r8
xorq %r8, 104(%rax)
movq 24(%rsi), %r8
xorq %r8, 112(%rax)
movq 24(%rdi), %r8
xorq %r8, 120(%rax)
movw 32(%rcx), %cx
xorw %cx, 128(%rax)
xorb $31, 130(%rax)
movw 32(%rdx), %cx
xorw %cx, 136(%rax)
xorb $31, 138(%rax)
movw 32(%rsi), %cx
xorw %cx, 144(%rax)
xorb $31, 146(%rax)
movw 32(%rdi), %cx
xorw %cx, 152(%rax)
xorb $31, 154(%rax)
vmovdqu glob_data + 2080(%rip), %ymm0
vmovdqu 640(%rax), %ymm1
vpxor %ymm1, %ymm0, %ymm0
vmovdqu %ymm0, 640(%rax)
jmp *(%rsp)
L_keccakf1600_4x_avx2$1:
movq %rsp, %rcx
leaq glob_data + 2176(%rip), %rdx
vmovdqu glob_data + 2112(%rip), %ymm0
vmovdqu glob_data + 2144(%rip), %ymm1
movq $0, %rsi
L_keccakf1600_4x_avx2$2:
vmovdqu (%rdx,%rsi), %ymm2
vmovdqu (%rax), %ymm3
vmovdqu 32(%rax), %ymm4
vmovdqu 64(%rax), %ymm5
vmovdqu 96(%rax), %ymm6
vmovdqu 128(%rax), %ymm7
vpxor 160(%rax), %ymm3, %ymm3
vpxor 192(%rax), %ymm4, %ymm4
vpxor 224(%rax), %ymm5, %ymm5
vpxor 256(%rax), %ymm6, %ymm6
vpxor 288(%rax), %ymm7, %ymm7
vpxor 320(%rax), %ymm3, %ymm3
vpxor 352(%rax), %ymm4, %ymm4
vpxor 384(%rax), %ymm5, %ymm5
vpxor 416(%rax), %ymm6, %ymm6
vpxor 448(%rax), %ymm7, %ymm7
vpxor 480(%rax), %ymm3, %ymm3
vpxor 512(%rax), %ymm4, %ymm4
vpxor 544(%rax), %ymm5, %ymm8
vpxor 576(%rax), %ymm6, %ymm9
vpxor 608(%rax), %ymm7, %ymm10
vpxor 640(%rax), %ymm3, %ymm7
vpxor 672(%rax), %ymm4, %ymm5
vpxor 704(%rax), %ymm8, %ymm6
vpxor 736(%rax), %ymm9, %ymm8
vpxor 768(%rax), %ymm10, %ymm9
vmovdqu %ymm5, %ymm3
vpsllq $1, %ymm3, %ymm4
vpsrlq $63, %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm3
vmovdqu %ymm6, %ymm4
vpsllq $1, %ymm4, %ymm10
vpsrlq $63, %ymm4, %ymm4
vpor %ymm10, %ymm4, %ymm4
vpxor %ymm7, %ymm4, %ymm4
vmovdqu %ymm8, %ymm10
vpsllq $1, %ymm10, %ymm11
vpsrlq $63, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vpxor %ymm5, %ymm10, %ymm5
vpsllq $1, %ymm9, %ymm10
vpsrlq $63, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpsllq $1, %ymm7, %ymm9
vpsrlq $63, %ymm7, %ymm7
vpor %ymm9, %ymm7, %ymm7
vpxor %ymm8, %ymm7, %ymm7
vmovdqu (%rax), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vmovdqu 192(%rax), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $44, %ymm9, %ymm10
vpsrlq $20, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 384(%rax), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $43, %ymm10, %ymm11
vpsrlq $21, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 576(%rax), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpsllq $21, %ymm11, %ymm12
vpsrlq $43, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vmovdqu 768(%rax), %ymm12
vpxor %ymm7, %ymm12, %ymm12
vpsllq $14, %ymm12, %ymm13
vpsrlq $50, %ymm12, %ymm12
vpor %ymm13, %ymm12, %ymm12
vpandn %ymm10, %ymm9, %ymm13
vpxor %ymm8, %ymm13, %ymm13
vpxor %ymm2, %ymm13, %ymm2
vmovdqu %ymm2, (%rcx)
vpandn %ymm11, %ymm10, %ymm2
vpxor %ymm9, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rcx)
vpandn %ymm12, %ymm11, %ymm2
vpxor %ymm10, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rcx)
vpandn %ymm8, %ymm12, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rcx)
vpandn %ymm9, %ymm8, %ymm2
vpxor %ymm12, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rcx)
vmovdqu 96(%rax), %ymm2
vpxor %ymm6, %ymm2, %ymm2
vpsllq $28, %ymm2, %ymm8
vpsrlq $36, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 288(%rax), %ymm8
vpxor %ymm7, %ymm8, %ymm8
vpsllq $20, %ymm8, %ymm9
vpsrlq $44, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 320(%rax), %ymm9
vpxor %ymm3, %ymm9, %ymm9
vpsllq $3, %ymm9, %ymm10
vpsrlq $61, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 512(%rax), %ymm10
vpxor %ymm4, %ymm10, %ymm10
vpsllq $45, %ymm10, %ymm11
vpsrlq $19, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 704(%rax), %ymm11
vpxor %ymm5, %ymm11, %ymm11
vpsllq $61, %ymm11, %ymm12
vpsrlq $3, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 160(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 192(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 224(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 256(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rcx)
vmovdqu 32(%rax), %ymm2
vpxor %ymm4, %ymm2, %ymm2
vpsllq $1, %ymm2, %ymm8
vpsrlq $63, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 224(%rax), %ymm8
vpxor %ymm5, %ymm8, %ymm8
vpsllq $6, %ymm8, %ymm9
vpsrlq $58, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 416(%rax), %ymm9
vpxor %ymm6, %ymm9, %ymm9
vpsllq $25, %ymm9, %ymm10
vpsrlq $39, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 608(%rax), %ymm10
vpxor %ymm7, %ymm10, %ymm10
vpshufb %ymm0, %ymm10, %ymm10
vmovdqu 640(%rax), %ymm11
vpxor %ymm3, %ymm11, %ymm11
vpsllq $18, %ymm11, %ymm12
vpsrlq $46, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 320(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 352(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 384(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 416(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rcx)
vmovdqu 128(%rax), %ymm2
vpxor %ymm7, %ymm2, %ymm2
vpsllq $27, %ymm2, %ymm8
vpsrlq $37, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 160(%rax), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vpsllq $36, %ymm8, %ymm9
vpsrlq $28, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 352(%rax), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $10, %ymm9, %ymm10
vpsrlq $54, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 544(%rax), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $15, %ymm10, %ymm11
vpsrlq $49, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 736(%rax), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpshufb %ymm1, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 480(%rcx)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 512(%rcx)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 544(%rcx)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 576(%rcx)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 608(%rcx)
vmovdqu 64(%rax), %ymm2
vpxor %ymm5, %ymm2, %ymm2
vpsllq $62, %ymm2, %ymm5
vpsrlq $2, %ymm2, %ymm2
vpor %ymm5, %ymm2, %ymm2
vmovdqu 256(%rax), %ymm5
vpxor %ymm6, %ymm5, %ymm5
vpsllq $55, %ymm5, %ymm6
vpsrlq $9, %ymm5, %ymm5
vpor %ymm6, %ymm5, %ymm5
vmovdqu 448(%rax), %ymm6
vpxor %ymm7, %ymm6, %ymm6
vpsllq $39, %ymm6, %ymm7
vpsrlq $25, %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm6
vmovdqu 480(%rax), %ymm7
vpxor %ymm3, %ymm7, %ymm3
vpsllq $41, %ymm3, %ymm7
vpsrlq $23, %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm3
vmovdqu 672(%rax), %ymm7
vpxor %ymm4, %ymm7, %ymm4
vpsllq $2, %ymm4, %ymm7
vpsrlq $62, %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpandn %ymm6, %ymm5, %ymm7
vpxor %ymm2, %ymm7, %ymm7
vmovdqu %ymm7, 640(%rcx)
vpandn %ymm3, %ymm6, %ymm7
vpxor %ymm5, %ymm7, %ymm7
vmovdqu %ymm7, 672(%rcx)
vpandn %ymm4, %ymm3, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vmovdqu %ymm6, 704(%rcx)
vpandn %ymm2, %ymm4, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vmovdqu %ymm3, 736(%rcx)
vpandn %ymm5, %ymm2, %ymm2
vpxor %ymm4, %ymm2, %ymm2
vmovdqu %ymm2, 768(%rcx)
vmovdqu 32(%rdx,%rsi), %ymm2
vmovdqu (%rcx), %ymm3
vmovdqu 32(%rcx), %ymm4
vmovdqu 64(%rcx), %ymm5
vmovdqu 96(%rcx), %ymm6
vmovdqu 128(%rcx), %ymm7
vpxor 160(%rcx), %ymm3, %ymm3
vpxor 192(%rcx), %ymm4, %ymm4
vpxor 224(%rcx), %ymm5, %ymm5
vpxor 256(%rcx), %ymm6, %ymm6
vpxor 288(%rcx), %ymm7, %ymm7
vpxor 320(%rcx), %ymm3, %ymm3
vpxor 352(%rcx), %ymm4, %ymm4
vpxor 384(%rcx), %ymm5, %ymm5
vpxor 416(%rcx), %ymm6, %ymm6
vpxor 448(%rcx), %ymm7, %ymm7
vpxor 480(%rcx), %ymm3, %ymm3
vpxor 512(%rcx), %ymm4, %ymm4
vpxor 544(%rcx), %ymm5, %ymm8
vpxor 576(%rcx), %ymm6, %ymm9
vpxor 608(%rcx), %ymm7, %ymm10
vpxor 640(%rcx), %ymm3, %ymm7
vpxor 672(%rcx), %ymm4, %ymm5
vpxor 704(%rcx), %ymm8, %ymm6
vpxor 736(%rcx), %ymm9, %ymm8
vpxor 768(%rcx), %ymm10, %ymm9
vmovdqu %ymm5, %ymm3
vpsllq $1, %ymm3, %ymm4
vpsrlq $63, %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm3
vmovdqu %ymm6, %ymm4
vpsllq $1, %ymm4, %ymm10
vpsrlq $63, %ymm4, %ymm4
vpor %ymm10, %ymm4, %ymm4
vpxor %ymm7, %ymm4, %ymm4
vmovdqu %ymm8, %ymm10
vpsllq $1, %ymm10, %ymm11
vpsrlq $63, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vpxor %ymm5, %ymm10, %ymm5
vpsllq $1, %ymm9, %ymm10
vpsrlq $63, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vpxor %ymm6, %ymm9, %ymm6
vpsllq $1, %ymm7, %ymm9
vpsrlq $63, %ymm7, %ymm7
vpor %ymm9, %ymm7, %ymm7
vpxor %ymm8, %ymm7, %ymm7
vmovdqu (%rcx), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vmovdqu 192(%rcx), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $44, %ymm9, %ymm10
vpsrlq $20, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 384(%rcx), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $43, %ymm10, %ymm11
vpsrlq $21, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 576(%rcx), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpsllq $21, %ymm11, %ymm12
vpsrlq $43, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vmovdqu 768(%rcx), %ymm12
vpxor %ymm7, %ymm12, %ymm12
vpsllq $14, %ymm12, %ymm13
vpsrlq $50, %ymm12, %ymm12
vpor %ymm13, %ymm12, %ymm12
vpandn %ymm10, %ymm9, %ymm13
vpxor %ymm8, %ymm13, %ymm13
vpxor %ymm2, %ymm13, %ymm2
vmovdqu %ymm2, (%rax)
vpandn %ymm11, %ymm10, %ymm2
vpxor %ymm9, %ymm2, %ymm2
vmovdqu %ymm2, 32(%rax)
vpandn %ymm12, %ymm11, %ymm2
vpxor %ymm10, %ymm2, %ymm2
vmovdqu %ymm2, 64(%rax)
vpandn %ymm8, %ymm12, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 96(%rax)
vpandn %ymm9, %ymm8, %ymm2
vpxor %ymm12, %ymm2, %ymm2
vmovdqu %ymm2, 128(%rax)
vmovdqu 96(%rcx), %ymm2
vpxor %ymm6, %ymm2, %ymm2
vpsllq $28, %ymm2, %ymm8
vpsrlq $36, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 288(%rcx), %ymm8
vpxor %ymm7, %ymm8, %ymm8
vpsllq $20, %ymm8, %ymm9
vpsrlq $44, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 320(%rcx), %ymm9
vpxor %ymm3, %ymm9, %ymm9
vpsllq $3, %ymm9, %ymm10
vpsrlq $61, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 512(%rcx), %ymm10
vpxor %ymm4, %ymm10, %ymm10
vpsllq $45, %ymm10, %ymm11
vpsrlq $19, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 704(%rcx), %ymm11
vpxor %ymm5, %ymm11, %ymm11
vpsllq $61, %ymm11, %ymm12
vpsrlq $3, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 160(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 192(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 224(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 256(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 288(%rax)
vmovdqu 32(%rcx), %ymm2
vpxor %ymm4, %ymm2, %ymm2
vpsllq $1, %ymm2, %ymm8
vpsrlq $63, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 224(%rcx), %ymm8
vpxor %ymm5, %ymm8, %ymm8
vpsllq $6, %ymm8, %ymm9
vpsrlq $58, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 416(%rcx), %ymm9
vpxor %ymm6, %ymm9, %ymm9
vpsllq $25, %ymm9, %ymm10
vpsrlq $39, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 608(%rcx), %ymm10
vpxor %ymm7, %ymm10, %ymm10
vpshufb %ymm0, %ymm10, %ymm10
vmovdqu 640(%rcx), %ymm11
vpxor %ymm3, %ymm11, %ymm11
vpsllq $18, %ymm11, %ymm12
vpsrlq $46, %ymm11, %ymm11
vpor %ymm12, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 320(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 352(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 384(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 416(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 448(%rax)
vmovdqu 128(%rcx), %ymm2
vpxor %ymm7, %ymm2, %ymm2
vpsllq $27, %ymm2, %ymm8
vpsrlq $37, %ymm2, %ymm2
vpor %ymm8, %ymm2, %ymm2
vmovdqu 160(%rcx), %ymm8
vpxor %ymm3, %ymm8, %ymm8
vpsllq $36, %ymm8, %ymm9
vpsrlq $28, %ymm8, %ymm8
vpor %ymm9, %ymm8, %ymm8
vmovdqu 352(%rcx), %ymm9
vpxor %ymm4, %ymm9, %ymm9
vpsllq $10, %ymm9, %ymm10
vpsrlq $54, %ymm9, %ymm9
vpor %ymm10, %ymm9, %ymm9
vmovdqu 544(%rcx), %ymm10
vpxor %ymm5, %ymm10, %ymm10
vpsllq $15, %ymm10, %ymm11
vpsrlq $49, %ymm10, %ymm10
vpor %ymm11, %ymm10, %ymm10
vmovdqu 736(%rcx), %ymm11
vpxor %ymm6, %ymm11, %ymm11
vpshufb %ymm1, %ymm11, %ymm11
vpandn %ymm9, %ymm8, %ymm12
vpxor %ymm2, %ymm12, %ymm12
vmovdqu %ymm12, 480(%rax)
vpandn %ymm10, %ymm9, %ymm12
vpxor %ymm8, %ymm12, %ymm12
vmovdqu %ymm12, 512(%rax)
vpandn %ymm11, %ymm10, %ymm12
vpxor %ymm9, %ymm12, %ymm9
vmovdqu %ymm9, 544(%rax)
vpandn %ymm2, %ymm11, %ymm9
vpxor %ymm10, %ymm9, %ymm9
vmovdqu %ymm9, 576(%rax)
vpandn %ymm8, %ymm2, %ymm2
vpxor %ymm11, %ymm2, %ymm2
vmovdqu %ymm2, 608(%rax)
vmovdqu 64(%rcx), %ymm2
vpxor %ymm5, %ymm2, %ymm2
vpsllq $62, %ymm2, %ymm5
vpsrlq $2, %ymm2, %ymm2
vpor %ymm5, %ymm2, %ymm2
vmovdqu 256(%rcx), %ymm5
vpxor %ymm6, %ymm5, %ymm5
vpsllq $55, %ymm5, %ymm6
vpsrlq $9, %ymm5, %ymm5
vpor %ymm6, %ymm5, %ymm5
vmovdqu 448(%rcx), %ymm6
vpxor %ymm7, %ymm6, %ymm6
vpsllq $39, %ymm6, %ymm7
vpsrlq $25, %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm6
vmovdqu 480(%rcx), %ymm7
vpxor %ymm3, %ymm7, %ymm3
vpsllq $41, %ymm3, %ymm7
vpsrlq $23, %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm3
vmovdqu 672(%rcx), %ymm7
vpxor %ymm4, %ymm7, %ymm4
vpsllq $2, %ymm4, %ymm7
vpsrlq $62, %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpandn %ymm6, %ymm5, %ymm7
vpxor %ymm2, %ymm7, %ymm7
vmovdqu %ymm7, 640(%rax)
vpandn %ymm3, %ymm6, %ymm7
vpxor %ymm5, %ymm7, %ymm7
vmovdqu %ymm7, 672(%rax)
vpandn %ymm4, %ymm3, %ymm7
vpxor %ymm6, %ymm7, %ymm6
vmovdqu %ymm6, 704(%rax)
vpandn %ymm2, %ymm4, %ymm6
vpxor %ymm3, %ymm6, %ymm3
vmovdqu %ymm3, 736(%rax)
vpandn %ymm5, %ymm2, %ymm2
vpxor %ymm4, %ymm2, %ymm2
vmovdqu %ymm2, 768(%rax)
addq $64, %rsi
cmpq $768, %rsi
jb L_keccakf1600_4x_avx2$2
jmp *800(%rsp)
L_sha3_512_32$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6232(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movq $71, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_512_32$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_512_32$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
jmp *224(%rsp)
L_sha3_512_64$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rdx
movq glob_data + 6224(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 32(%rcx), %rdx
movq glob_data + 6232(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 40(%rcx), %rdx
movq glob_data + 6240(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 48(%rcx), %rdx
movq glob_data + 6248(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 56(%rcx), %rcx
movq glob_data + 6256(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6264(%rip), %rcx
shlq $3, %rcx
movq $71, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_512_64$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_512_64$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
jmp *224(%rsp)
L_shake256_128_33$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rdx
movq glob_data + 6224(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movb 32(%rcx), %cl
movq glob_data + 6232(%rip), %rdx
shlq $3, %rdx
movb %cl, (%rsp,%rdx)
incq %rdx
movb $31, (%rsp,%rdx)
movq glob_data + 6328(%rip), %rcx
shlq $3, %rcx
movq $135, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_shake256_128_33$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_shake256_128_33$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
movq glob_data + 6232(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 32(%rax)
movq glob_data + 6240(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 40(%rax)
movq glob_data + 6248(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 48(%rax)
movq glob_data + 6256(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 56(%rax)
movq glob_data + 6264(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 64(%rax)
movq glob_data + 6272(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 72(%rax)
movq glob_data + 6280(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 80(%rax)
movq glob_data + 6288(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 88(%rax)
movq glob_data + 6296(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 96(%rax)
movq glob_data + 6304(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 104(%rax)
movq glob_data + 6312(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 112(%rax)
movq glob_data + 6320(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 120(%rax)
jmp *224(%rsp)
L_shake256_64$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rax), %ymm4
movq glob_data + 6208(%rip), %rsi
movq 8(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6216(%rip), %rsi
movq 16(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6224(%rip), %rsi
movq 24(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6232(%rip), %rsi
movq 32(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6240(%rip), %rsi
movq 40(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6248(%rip), %rsi
movq 48(%rax), %rdi
movq %rdi, (%rsp,%rsi,8)
movq glob_data + 6256(%rip), %rsi
movq 56(%rax), %rax
movq %rax, (%rsp,%rsi,8)
movq glob_data + 6264(%rip), %rax
shlq $3, %rax
movb $31, (%rsp,%rax)
movq glob_data + 6328(%rip), %rax
shlq $3, %rax
movq $135, %rsi
andq $7, %rsi
addq %rsi, %rax
xorb $-128, (%rsp,%rax)
vmovdqu 32(%rsp), %ymm5
vmovdqu 64(%rsp), %ymm0
vmovdqu 96(%rsp), %ymm1
vmovdqu 128(%rsp), %ymm6
vmovdqu 160(%rsp), %ymm2
vmovdqu 192(%rsp), %ymm3
movq $136, %rsi
leaq glob_data + 6200(%rip), %rax
jmp L_shake256_64$7
L_shake256_64$8:
leaq glob_data + 3328(%rip), %rdi
movq $0, %r8
leaq glob_data + 3136(%rip), %r9
leaq glob_data + 2944(%rip), %r10
movq $24, %r11
L_shake256_64$11:
vpshufd $78, %ymm0, %ymm8
vpxor %ymm1, %ymm2, %ymm7
vpxor %ymm3, %ymm6, %ymm9
vpxor %ymm5, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm0, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm4, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm0, %ymm0
vpxor %ymm11, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r9), %ymm0, %ymm7
vpsrlvq (%r10), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 64(%r9), %ymm1, %ymm7
vpsrlvq 64(%r10), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%r9), %ymm6, %ymm7
vpsrlvq 96(%r10), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 128(%r9), %ymm2, %ymm6
vpsrlvq 128(%r10), %ymm2, %ymm2
vpor %ymm6, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpermq $-115, %ymm0, %ymm6
vpermq $-115, %ymm1, %ymm7
vpsllvq 160(%r9), %ymm3, %ymm0
vpsrlvq 160(%r10), %ymm3, %ymm1
vpor %ymm0, %ymm1, %ymm8
vpxor %ymm9, %ymm5, %ymm0
vpermq $27, %ymm10, %ymm5
vpermq $114, %ymm2, %ymm9
vpsllvq 32(%r9), %ymm0, %ymm1
vpsrlvq 32(%r10), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm1
vpblendd $12, %ymm9, %ymm10, %ymm0
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm0, %ymm0
vpblendd $48, %ymm5, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm5, %ymm0, %ymm0
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm0, %ymm0
vpandn %ymm11, %ymm3, %ymm3
vpblendd $12, %ymm10, %ymm5, %ymm11
vpblendd $12, %ymm5, %ymm6, %ymm12
vpxor %ymm6, %ymm0, %ymm2
vpblendd $48, %ymm6, %ymm11, %ymm0
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm5, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm0, %ymm0
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm0, %ymm0
vpxor %ymm9, %ymm0, %ymm12
vpermq $30, %ymm8, %ymm0
vpblendd $48, %ymm4, %ymm0, %ymm0
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm4, %ymm11, %ymm11
vpandn %ymm0, %ymm11, %ymm11
vpblendd $12, %ymm5, %ymm7, %ymm0
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm0, %ymm0
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm0, %ymm0
vpblendd $-64, %ymm5, %ymm13, %ymm13
vpandn %ymm13, %ymm0, %ymm0
vpxor %ymm10, %ymm0, %ymm0
vpermq $0, %ymm1, %ymm13
vpermq $27, %ymm2, %ymm1
vpermq $-115, %ymm3, %ymm2
vpermq $114, %ymm12, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm5, %ymm9
vpblendd $48, %ymm5, %ymm12, %ymm5
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm5, %ymm5
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm5, %ymm6
vpxor %ymm13, %ymm4, %ymm4
vpxor %ymm8, %ymm11, %ymm5
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rdi,%r8), %ymm4, %ymm4
addq $32, %r8
decq %r11
jne L_shake256_64$11
vmovdqu %ymm4, (%rsp)
vmovdqu %ymm5, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm1, 96(%rsp)
vmovdqu %ymm6, 128(%rsp)
vmovdqu %ymm2, 160(%rsp)
vmovdqu %ymm3, 192(%rsp)
movq %rsi, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_shake256_64$9
L_shake256_64$10:
movq (%rax,%r8,8), %r9
movq (%rsp,%r9,8), %r9
movq %r9, (%rdx,%r8,8)
incq %r8
L_shake256_64$9:
cmpq %rdi, %r8
jb L_shake256_64$10
addq %rsi, %rdx
subq %rsi, %rcx
L_shake256_64$7:
cmpq %rsi, %rcx
jnbe L_shake256_64$8
leaq glob_data + 3328(%rip), %rsi
movq $0, %rdi
leaq glob_data + 3136(%rip), %r8
leaq glob_data + 2944(%rip), %r9
movq $24, %r10
L_shake256_64$6:
vpshufd $78, %ymm0, %ymm8
vpxor %ymm1, %ymm2, %ymm7
vpxor %ymm3, %ymm6, %ymm9
vpxor %ymm5, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm0, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm4, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm0, %ymm0
vpxor %ymm11, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm0, %ymm7
vpsrlvq (%r9), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 64(%r8), %ymm1, %ymm7
vpsrlvq 64(%r9), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm6, %ymm6
vpsllvq 96(%r8), %ymm6, %ymm7
vpsrlvq 96(%r9), %ymm6, %ymm6
vpor %ymm7, %ymm6, %ymm10
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 128(%r8), %ymm2, %ymm6
vpsrlvq 128(%r9), %ymm2, %ymm2
vpor %ymm6, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpermq $-115, %ymm0, %ymm6
vpermq $-115, %ymm1, %ymm7
vpsllvq 160(%r8), %ymm3, %ymm0
vpsrlvq 160(%r9), %ymm3, %ymm1
vpor %ymm0, %ymm1, %ymm8
vpxor %ymm9, %ymm5, %ymm0
vpermq $27, %ymm10, %ymm5
vpermq $114, %ymm2, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r9), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm1
vpblendd $12, %ymm9, %ymm10, %ymm0
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm0, %ymm0
vpblendd $48, %ymm5, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm5, %ymm0, %ymm0
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm0, %ymm0
vpandn %ymm11, %ymm3, %ymm3
vpblendd $12, %ymm10, %ymm5, %ymm11
vpblendd $12, %ymm5, %ymm6, %ymm12
vpxor %ymm6, %ymm0, %ymm2
vpblendd $48, %ymm6, %ymm11, %ymm0
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm5, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm0, %ymm0
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm0, %ymm0
vpxor %ymm9, %ymm0, %ymm12
vpermq $30, %ymm8, %ymm0
vpblendd $48, %ymm4, %ymm0, %ymm0
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm4, %ymm11, %ymm11
vpandn %ymm0, %ymm11, %ymm11
vpblendd $12, %ymm5, %ymm7, %ymm0
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm0, %ymm0
vpblendd $48, %ymm6, %ymm13, %ymm13
vpblendd $-64, %ymm6, %ymm0, %ymm0
vpblendd $-64, %ymm5, %ymm13, %ymm13
vpandn %ymm13, %ymm0, %ymm0
vpxor %ymm10, %ymm0, %ymm0
vpermq $0, %ymm1, %ymm13
vpermq $27, %ymm2, %ymm1
vpermq $-115, %ymm3, %ymm2
vpermq $114, %ymm12, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm5, %ymm9
vpblendd $48, %ymm5, %ymm12, %ymm5
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm5, %ymm5
vpblendd $-64, %ymm6, %ymm9, %ymm6
vpandn %ymm6, %ymm5, %ymm6
vpxor %ymm13, %ymm4, %ymm4
vpxor %ymm8, %ymm11, %ymm5
vpxor %ymm7, %ymm6, %ymm6
vpxor (%rsi,%rdi), %ymm4, %ymm4
addq $32, %rdi
decq %r10
jne L_shake256_64$6
vmovdqu %ymm4, (%rsp)
vmovdqu %ymm5, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm1, 96(%rsp)
vmovdqu %ymm6, 128(%rsp)
vmovdqu %ymm2, 160(%rsp)
vmovdqu %ymm3, 192(%rsp)
movq %rcx, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_shake256_64$4
L_shake256_64$5:
movq (%rax,%rdi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdx,%rdi,8)
incq %rdi
L_shake256_64$4:
cmpq %rsi, %rdi
jb L_shake256_64$5
movq (%rax,%rdi,8), %rax
shlq $3, %rdi
shlq $3, %rax
jmp L_shake256_64$2
L_shake256_64$3:
movb (%rsp,%rax), %sil
movb %sil, (%rdx,%rdi)
incq %rdi
incq %rax
L_shake256_64$2:
cmpq %rcx, %rdi
jb L_shake256_64$3
jmp *224(%rsp)
L_sha3_256_32$1:
vpxor %ymm0, %ymm0, %ymm0
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm0, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm0, 128(%rsp)
vmovdqu %ymm0, 160(%rsp)
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq (%rcx), %ymm6
movq 8(%rcx), %rdx
movq glob_data + 6208(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 16(%rcx), %rdx
movq glob_data + 6216(%rip), %rsi
movq %rdx, (%rsp,%rsi,8)
movq 24(%rcx), %rcx
movq glob_data + 6224(%rip), %rdx
movq %rcx, (%rsp,%rdx,8)
movq glob_data + 6232(%rip), %rcx
shlq $3, %rcx
movb $6, (%rsp,%rcx)
movq glob_data + 6328(%rip), %rcx
shlq $3, %rcx
movq $135, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
vmovdqu 32(%rsp), %ymm0
vmovdqu 64(%rsp), %ymm1
vmovdqu 96(%rsp), %ymm2
vmovdqu 128(%rsp), %ymm3
vmovdqu 160(%rsp), %ymm4
vmovdqu 192(%rsp), %ymm5
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_256_32$2:
vpshufd $78, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm7
vpxor %ymm5, %ymm3, %ymm9
vpxor %ymm0, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm1, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm1, %ymm1
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm1, %ymm7
vpsrlvq (%rdi), %ymm1, %ymm1
vpor %ymm7, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpsllvq 64(%rsi), %ymm2, %ymm7
vpsrlvq 64(%rdi), %ymm2, %ymm2
vpor %ymm7, %ymm2, %ymm2
vpxor %ymm9, %ymm3, %ymm3
vpsllvq 96(%rsi), %ymm3, %ymm7
vpsrlvq 96(%rdi), %ymm3, %ymm3
vpor %ymm7, %ymm3, %ymm10
vpxor %ymm9, %ymm4, %ymm3
vpsllvq 128(%rsi), %ymm3, %ymm4
vpsrlvq 128(%rdi), %ymm3, %ymm3
vpor %ymm4, %ymm3, %ymm4
vpxor %ymm9, %ymm5, %ymm5
vpermq $-115, %ymm1, %ymm3
vpermq $-115, %ymm2, %ymm7
vpsllvq 160(%rsi), %ymm5, %ymm1
vpsrlvq 160(%rdi), %ymm5, %ymm2
vpor %ymm1, %ymm2, %ymm8
vpxor %ymm9, %ymm0, %ymm1
vpermq $27, %ymm10, %ymm0
vpermq $114, %ymm4, %ymm9
vpsllvq 32(%rsi), %ymm1, %ymm2
vpsrlvq 32(%rdi), %ymm1, %ymm1
vpor %ymm2, %ymm1, %ymm10
vpsrldq $8, %ymm8, %ymm1
vpandn %ymm1, %ymm8, %ymm2
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm3, %ymm5
vpblendd $12, %ymm3, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm0, %ymm4, %ymm4
vpblendd $48, %ymm10, %ymm5, %ymm5
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm0, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm9, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm4, %ymm1, %ymm1
vpandn %ymm11, %ymm5, %ymm5
vpblendd $12, %ymm10, %ymm0, %ymm11
vpblendd $12, %ymm0, %ymm3, %ymm12
vpxor %ymm3, %ymm1, %ymm4
vpblendd $48, %ymm3, %ymm11, %ymm1
vpblendd $48, %ymm7, %ymm12, %ymm11
vpxor %ymm0, %ymm5, %ymm5
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm1, %ymm1
vpxor %ymm9, %ymm1, %ymm12
vpermq $30, %ymm8, %ymm1
vpblendd $48, %ymm6, %ymm1, %ymm1
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm1, %ymm11, %ymm11
vpblendd $12, %ymm0, %ymm7, %ymm1
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm13, %ymm13
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm0, %ymm13, %ymm13
vpandn %ymm13, %ymm1, %ymm1
vpxor %ymm10, %ymm1, %ymm1
vpermq $0, %ymm2, %ymm13
vpermq $27, %ymm4, %ymm2
vpermq $-115, %ymm5, %ymm4
vpermq $114, %ymm12, %ymm5
vpblendd $12, %ymm3, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm0, %ymm9
vpblendd $48, %ymm0, %ymm12, %ymm0
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm0, %ymm0
vpblendd $-64, %ymm3, %ymm9, %ymm3
vpandn %ymm3, %ymm0, %ymm3
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm0
vpxor %ymm7, %ymm3, %ymm3
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_256_32$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm0, 32(%rsp)
vmovdqu %ymm1, 64(%rsp)
vmovdqu %ymm2, 96(%rsp)
vmovdqu %ymm3, 128(%rsp)
vmovdqu %ymm4, 160(%rsp)
vmovdqu %ymm5, 192(%rsp)
movq glob_data + 6200(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, (%rax)
movq glob_data + 6208(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 8(%rax)
movq glob_data + 6216(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 16(%rax)
movq glob_data + 6224(%rip), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
jmp *224(%rsp)
L_sha3_256$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
movb $6, %cl
movq $136, %rdx
leaq glob_data + 6200(%rip), %rsi
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_sha3_256$7
L_sha3_256$8:
movq %rdx, %r9
shrq $3, %r9
movq $0, %r10
jmp L_sha3_256$10
L_sha3_256$11:
movq (%r8,%r10,8), %r11
movq (%rsi,%r10,8), %rbx
movq %r11, (%rsp,%rbx,8)
incq %r10
L_sha3_256$10:
cmpq %r9, %r10
jb L_sha3_256$11
movq (%rsp), %r9
movq %r9, 8(%rsp)
movq %r9, 16(%rsp)
movq %r9, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rdx, %r8
subq %rdx, %rdi
leaq glob_data + 3328(%rip), %r9
movq $0, %r10
leaq glob_data + 3136(%rip), %r11
leaq glob_data + 2944(%rip), %rbx
movq $24, %rbp
L_sha3_256$9:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r11), %ymm4, %ymm7
vpsrlvq (%rbx), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r11), %ymm0, %ymm7
vpsrlvq 64(%rbx), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r11), %ymm5, %ymm7
vpsrlvq 96(%rbx), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r11), %ymm1, %ymm5
vpsrlvq 128(%rbx), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r11), %ymm2, %ymm0
vpsrlvq 160(%rbx), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r11), %ymm0, %ymm1
vpsrlvq 32(%rbx), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r9,%r10), %ymm6, %ymm6
addq $32, %r10
decq %rbp
jne L_sha3_256$9
L_sha3_256$7:
cmpq %rdx, %rdi
jnb L_sha3_256$8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdi, %r9
shrq $3, %r9
movq $0, %r10
jmp L_sha3_256$5
L_sha3_256$6:
movq (%r8,%r10,8), %r11
movq (%rsi,%r10,8), %rbx
movq %r11, (%rsp,%rbx,8)
incq %r10
L_sha3_256$5:
cmpq %r9, %r10
jb L_sha3_256$6
movq (%rsi,%r10,8), %r9
shlq $3, %r9
shlq $3, %r10
jmp L_sha3_256$3
L_sha3_256$4:
movb (%r8,%r10), %r11b
movb %r11b, (%rsp,%r9)
incq %r10
incq %r9
L_sha3_256$3:
cmpq %rdi, %r10
jb L_sha3_256$4
movb %cl, (%rsp,%r9)
movq %rdx, %rcx
addq $-1, %rcx
shrq $3, %rcx
movq (%rsi,%rcx,8), %rcx
shlq $3, %rcx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rcx
xorb $-128, (%rsp,%rcx)
movq (%rsp), %rcx
movq %rcx, 8(%rsp)
movq %rcx, 16(%rsp)
movq %rcx, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm7
vpxor 64(%rsp), %ymm4, %ymm3
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm4
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r8
L_sha3_256$2:
vpshufd $78, %ymm3, %ymm5
vpxor %ymm0, %ymm1, %ymm8
vpxor %ymm2, %ymm4, %ymm9
vpxor %ymm7, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm10
vpermq $-109, %ymm10, %ymm8
vpxor %ymm3, %ymm5, %ymm5
vpermq $78, %ymm5, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm8, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm5, %ymm5
vpxor %ymm9, %ymm5, %ymm9
vpsrlq $63, %ymm9, %ymm5
vpaddq %ymm9, %ymm9, %ymm12
vpor %ymm5, %ymm12, %ymm12
vpxor %ymm11, %ymm3, %ymm3
vpxor %ymm11, %ymm6, %ymm5
vpblendd $-64, %ymm12, %ymm10, %ymm6
vpblendd $3, %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm6, %ymm9
vpsllvq (%rsi), %ymm3, %ymm6
vpsrlvq (%rdi), %ymm3, %ymm3
vpor %ymm6, %ymm3, %ymm3
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm6
vpsrlvq 64(%rdi), %ymm0, %ymm0
vpor %ymm6, %ymm0, %ymm0
vpxor %ymm9, %ymm4, %ymm4
vpsllvq 96(%rsi), %ymm4, %ymm6
vpsrlvq 96(%rdi), %ymm4, %ymm4
vpor %ymm6, %ymm4, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm4
vpsrlvq 128(%rdi), %ymm1, %ymm1
vpor %ymm4, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm3, %ymm4
vpermq $-115, %ymm0, %ymm6
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%rdi), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm7, %ymm0
vpermq $27, %ymm10, %ymm7
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%rdi), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm6, %ymm2
vpblendd $12, %ymm6, %ymm4, %ymm3
vpblendd $12, %ymm4, %ymm10, %ymm11
vpblendd $48, %ymm6, %ymm1, %ymm1
vpblendd $48, %ymm7, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm3, %ymm3
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm7, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm3, %ymm3
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm3, %ymm2
vpblendd $12, %ymm10, %ymm7, %ymm3
vpblendd $12, %ymm7, %ymm4, %ymm11
vpxor %ymm4, %ymm1, %ymm1
vpblendd $48, %ymm4, %ymm3, %ymm3
vpblendd $48, %ymm6, %ymm11, %ymm11
vpxor %ymm7, %ymm2, %ymm2
vpblendd $-64, %ymm6, %ymm3, %ymm3
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm3, %ymm3
vpxor %ymm9, %ymm3, %ymm12
vpermq $30, %ymm8, %ymm3
vpblendd $48, %ymm5, %ymm3, %ymm3
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm5, %ymm11, %ymm11
vpandn %ymm3, %ymm11, %ymm11
vpblendd $12, %ymm7, %ymm6, %ymm3
vpblendd $12, %ymm6, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm3, %ymm3
vpblendd $48, %ymm4, %ymm13, %ymm13
vpblendd $-64, %ymm4, %ymm3, %ymm3
vpblendd $-64, %ymm7, %ymm13, %ymm13
vpandn %ymm13, %ymm3, %ymm3
vpxor %ymm10, %ymm3, %ymm3
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm4, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm7, %ymm9
vpblendd $48, %ymm7, %ymm12, %ymm7
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm7, %ymm7
vpblendd $-64, %ymm4, %ymm9, %ymm4
vpandn %ymm4, %ymm7, %ymm4
vpxor %ymm13, %ymm5, %ymm5
vpxor %ymm8, %ymm11, %ymm7
vpxor %ymm6, %ymm4, %ymm4
vpxor (%rcx,%rdx), %ymm5, %ymm6
addq $32, %rdx
decq %r8
jne L_sha3_256$2
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm3, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm4, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
leaq glob_data + 6200(%rip), %rcx
movq (%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq (%rsp,%rdx,8), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq (%rsp,%rcx,8), %rcx
movq %rcx, 24(%rax)
jmp *224(%rsp)
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 6200(%rip), %rax
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%rax,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 3328(%rip), %r11
movq $0, %rbx
leaq glob_data + 3136(%rip), %rbp
leaq glob_data + 2944(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%rax,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%rax,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %dil, (%rsp,%r11)
movq %rcx, %rdx
addq $-1, %rdx
shrq $3, %rdx
movq (%rax,%rdx,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 6200(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 3328(%rip), %rdx
movq $0, %rsi
leaq glob_data + 3136(%rip), %rdi
leaq glob_data + 2944(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rdi), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rdi), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rdi), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rdi), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rdi), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rdi), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %rdi
movq (%rsp,%rdi,8), %rdi
movq %rdi, (%r9,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %r9
subq %rcx, %r8
L_keccak1600_avx2$7:
cmpq %rcx, %r8
jnbe L_keccak1600_avx2$8
leaq glob_data + 3328(%rip), %rcx
movq $0, %rdx
leaq glob_data + 3136(%rip), %rsi
leaq glob_data + 2944(%rip), %rdi
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%rdi), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%rdi), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%rdi), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%rdi), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%rdi), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%rdi), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r8, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%r9,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%r9,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r8, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 1
.byte 1
.byte 2
.byte 3
.byte 4
.byte 4
.byte 5
.byte 6
.byte 7
.byte 7
.byte 8
.byte 9
.byte 10
.byte 10
.byte 11
.byte 4
.byte 5
.byte 5
.byte 6
.byte 7
.byte 8
.byte 8
.byte 9
.byte 10
.byte 11
.byte 11
.byte 12
.byte 13
.byte 14
.byte 14
.byte 15
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 8
.byte 9
.byte 10
.byte 11
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 9
.byte 10
.byte 11
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 8
.byte 0
.byte 1
.byte 1
.byte 2
.byte 2
.byte 3
.byte 3
.byte 4
.byte 5
.byte 6
.byte 6
.byte 7
.byte 7
.byte 8
.byte 8
.byte 9
.byte 2
.byte 3
.byte 3
.byte 4
.byte 4
.byte 5
.byte 5
.byte 6
.byte 7
.byte 8
.byte 8
.byte 9
.byte 9
.byte 10
.byte 10
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 1
.byte 1
.byte 1
.byte 2
.byte 2
.byte 2
.byte 2
.byte 3
.byte 3
.byte 3
.byte 3
.byte 4
.byte 4
.byte 4
.byte 4
.byte 5
.byte 5
.byte 5
.byte 5
.byte 6
.byte 6
.byte 6
.byte 6
.byte 7
.byte 7
.byte 7
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 73
.byte 5
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte 64
.byte 3
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -128
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -127
.byte 6
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -1
.byte 15
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte -40
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -95
.byte 5
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte -65
.byte 78
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte -13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte 1
.byte 13
.byte -91
.byte -91
.byte -76
.byte -31
.byte 34
.byte 79
.byte 52
.byte 93
.byte 35
.byte 68
.byte 86
.byte -91
.byte -25
.byte 78
.byte -6
.byte 83
.byte 123
.byte -57
.byte 37
.byte 43
.byte 55
.byte 58
.byte -120
.byte 24
.byte -127
.byte 126
.byte 5
.byte -60
.byte -97
.byte -9
.byte -72
.byte -80
.byte -91
.byte 6
.byte -76
.byte 5
.byte 34
.byte 9
.byte 52
.byte 1
.byte 35
.byte 11
.byte 86
.byte 3
.byte -25
.byte 9
.byte -6
.byte 5
.byte 123
.byte 6
.byte 37
.byte 12
.byte 55
.byte 5
.byte -120
.byte 0
.byte -127
.byte 11
.byte 5
.byte 5
.byte -97
.byte 10
.byte -72
.byte 8
.byte 15
.byte 68
.byte 67
.byte -94
.byte 29
.byte -112
.byte 108
.byte -124
.byte 102
.byte -43
.byte -26
.byte 87
.byte -2
.byte 30
.byte -95
.byte -41
.byte -93
.byte -67
.byte 106
.byte -95
.byte 63
.byte -43
.byte -65
.byte 81
.byte -71
.byte -96
.byte -41
.byte 28
.byte -90
.byte -100
.byte -48
.byte 121
.byte 15
.byte 7
.byte 67
.byte 9
.byte 29
.byte 9
.byte 108
.byte 0
.byte 102
.byte 3
.byte -26
.byte 5
.byte -2
.byte 4
.byte -95
.byte 4
.byte -93
.byte 4
.byte 106
.byte 3
.byte 63
.byte 8
.byte -65
.byte 4
.byte -71
.byte 5
.byte -41
.byte 7
.byte -90
.byte 10
.byte -48
.byte 9
.byte -5
.byte 69
.byte 92
.byte 94
.byte 41
.byte -17
.byte 65
.byte -66
.byte -43
.byte 49
.byte -28
.byte 113
.byte 64
.byte -55
.byte -114
.byte -53
.byte -73
.byte -72
.byte -9
.byte 117
.byte -115
.byte -36
.byte -106
.byte 110
.byte -61
.byte 34
.byte 15
.byte 62
.byte 90
.byte 110
.byte 85
.byte -78
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 35
.byte 63
.byte 35
.byte 63
.byte -51
.byte -105
.byte -51
.byte -105
.byte 102
.byte -35
.byte 102
.byte -35
.byte 6
.byte -72
.byte 6
.byte -72
.byte -95
.byte -35
.byte -95
.byte -35
.byte 37
.byte 41
.byte 37
.byte 41
.byte 8
.byte -95
.byte 8
.byte -95
.byte -87
.byte 109
.byte -87
.byte 109
.byte 35
.byte 6
.byte 35
.byte 6
.byte -51
.byte 0
.byte -51
.byte 0
.byte 102
.byte 11
.byte 102
.byte 11
.byte 6
.byte 6
.byte 6
.byte 6
.byte -95
.byte 10
.byte -95
.byte 10
.byte 37
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte 8
.byte 9
.byte -87
.byte 2
.byte -87
.byte 2
.byte 69
.byte -122
.byte 69
.byte -122
.byte 69
.byte -122
.byte 69
.byte -122
.byte -62
.byte 43
.byte -62
.byte 43
.byte -62
.byte 43
.byte -62
.byte 43
.byte -78
.byte -6
.byte -78
.byte -6
.byte -78
.byte -6
.byte -78
.byte -6
.byte 63
.byte -42
.byte 63
.byte -42
.byte 63
.byte -42
.byte 63
.byte -42
.byte 69
.byte 7
.byte 69
.byte 7
.byte 69
.byte 7
.byte 69
.byte 7
.byte -62
.byte 5
.byte -62
.byte 5
.byte -62
.byte 5
.byte -62
.byte 5
.byte -78
.byte 4
.byte -78
.byte 4
.byte -78
.byte 4
.byte -78
.byte 4
.byte 63
.byte 9
.byte 63
.byte 9
.byte 63
.byte 9
.byte 63
.byte 9
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte 55
.byte 65
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte -30
.byte -111
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte 55
.byte 12
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -30
.byte 11
.byte -19
.byte -4
.byte -19
.byte -4
.byte -19
.byte 5
.byte -19
.byte 5
.byte 75
.byte 49
.byte -72
.byte -77
.byte -92
.byte -73
.byte 125
.byte -79
.byte -94
.byte -50
.byte 54
.byte 73
.byte -109
.byte -119
.byte -9
.byte 126
.byte -116
.byte -22
.byte -52
.byte -91
.byte -21
.byte 17
.byte -74
.byte -52
.byte -104
.byte 84
.byte -102
.byte 55
.byte -74
.byte -53
.byte 83
.byte -44
.byte 75
.byte 0
.byte -72
.byte 11
.byte -92
.byte 11
.byte 125
.byte 10
.byte -94
.byte 8
.byte 54
.byte 7
.byte -109
.byte 0
.byte -9
.byte 9
.byte -116
.byte 6
.byte -52
.byte 1
.byte -21
.byte 0
.byte -74
.byte 10
.byte -104
.byte 12
.byte -102
.byte 9
.byte -74
.byte 9
.byte 83
.byte 11
.byte -100
.byte 20
.byte 95
.byte 56
.byte 104
.byte -69
.byte 54
.byte 72
.byte 90
.byte 112
.byte 9
.byte -114
.byte 122
.byte -42
.byte -10
.byte -126
.byte -37
.byte -25
.byte 35
.byte 58
.byte 80
.byte -4
.byte 91
.byte 108
.byte -13
.byte -81
.byte -29
.byte 125
.byte -42
.byte 44
.byte 79
.byte 1
.byte -100
.byte 0
.byte 95
.byte 11
.byte 104
.byte 3
.byte 54
.byte 6
.byte 90
.byte 2
.byte 9
.byte 3
.byte 122
.byte 8
.byte -10
.byte 0
.byte -37
.byte 6
.byte 35
.byte 1
.byte 80
.byte 12
.byte 91
.byte 11
.byte -13
.byte 6
.byte -29
.byte 4
.byte -42
.byte 10
.byte 79
.byte 4
.byte 68
.byte -109
.byte -125
.byte 101
.byte -118
.byte 2
.byte 82
.byte -36
.byte -102
.byte 48
.byte 64
.byte -63
.byte 8
.byte -104
.byte -3
.byte 49
.byte 8
.byte -98
.byte 26
.byte -81
.byte 46
.byte -79
.byte 13
.byte 92
.byte 10
.byte -121
.byte 40
.byte -6
.byte 117
.byte 25
.byte 58
.byte 22
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte -126
.byte 102
.byte -126
.byte 102
.byte 66
.byte -84
.byte 66
.byte -84
.byte 79
.byte 4
.byte 79
.byte 4
.byte 61
.byte -22
.byte 61
.byte -22
.byte -126
.byte 113
.byte -126
.byte 113
.byte -7
.byte 102
.byte -7
.byte 102
.byte 45
.byte -68
.byte 45
.byte -68
.byte -60
.byte 22
.byte -60
.byte 22
.byte -126
.byte 0
.byte -126
.byte 0
.byte 66
.byte 6
.byte 66
.byte 6
.byte 79
.byte 7
.byte 79
.byte 7
.byte 61
.byte 3
.byte 61
.byte 3
.byte -126
.byte 11
.byte -126
.byte 11
.byte -7
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte 45
.byte 5
.byte -60
.byte 10
.byte -60
.byte 10
.byte 75
.byte 61
.byte 75
.byte 61
.byte 75
.byte 61
.byte 75
.byte 61
.byte -40
.byte 14
.byte -40
.byte 14
.byte -40
.byte 14
.byte -40
.byte 14
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -109
.byte -85
.byte 81
.byte -85
.byte 81
.byte -85
.byte 81
.byte -85
.byte 81
.byte 75
.byte 12
.byte 75
.byte 12
.byte 75
.byte 12
.byte 75
.byte 12
.byte -40
.byte 6
.byte -40
.byte 6
.byte -40
.byte 6
.byte -40
.byte 6
.byte -109
.byte 10
.byte -109
.byte 10
.byte -109
.byte 10
.byte -109
.byte 10
.byte -85
.byte 0
.byte -85
.byte 0
.byte -85
.byte 0
.byte -85
.byte 0
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 115
.byte 48
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 44
.byte -53
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 115
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 44
.byte 7
.byte 103
.byte -58
.byte 103
.byte -58
.byte 103
.byte 1
.byte 103
.byte 1
.byte -116
.byte -21
.byte -116
.byte -21
.byte -116
.byte 7
.byte -116
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 123
.byte 11
.byte 123
.byte 11
.byte 10
.byte 11
.byte 10
.byte -102
.byte 57
.byte -102
.byte 57
.byte -102
.byte 11
.byte -102
.byte 11
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -43
.byte 52
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -114
.byte -49
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -43
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte -114
.byte 5
.byte 86
.byte -82
.byte 86
.byte -82
.byte 86
.byte -82
.byte 86
.byte -82
.byte 110
.byte 108
.byte 110
.byte 108
.byte 110
.byte 108
.byte 110
.byte 108
.byte 41
.byte -15
.byte 41
.byte -15
.byte 41
.byte -15
.byte 41
.byte -15
.byte -74
.byte -62
.byte -74
.byte -62
.byte -74
.byte -62
.byte -74
.byte -62
.byte 86
.byte 12
.byte 86
.byte 12
.byte 86
.byte 12
.byte 86
.byte 12
.byte 110
.byte 2
.byte 110
.byte 2
.byte 110
.byte 2
.byte 110
.byte 2
.byte 41
.byte 6
.byte 41
.byte 6
.byte 41
.byte 6
.byte 41
.byte 6
.byte -74
.byte 0
.byte -74
.byte 0
.byte -74
.byte 0
.byte -74
.byte 0
.byte 61
.byte -23
.byte 61
.byte -23
.byte -44
.byte 67
.byte -44
.byte 67
.byte 8
.byte -103
.byte 8
.byte -103
.byte 127
.byte -114
.byte 127
.byte -114
.byte -60
.byte 21
.byte -60
.byte 21
.byte -78
.byte -5
.byte -78
.byte -5
.byte -65
.byte 83
.byte -65
.byte 83
.byte 127
.byte -103
.byte 127
.byte -103
.byte 61
.byte 2
.byte 61
.byte 2
.byte -44
.byte 7
.byte -44
.byte 7
.byte 8
.byte 1
.byte 8
.byte 1
.byte 127
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -60
.byte 9
.byte -78
.byte 5
.byte -78
.byte 5
.byte -65
.byte 6
.byte -65
.byte 6
.byte 127
.byte 12
.byte 127
.byte 12
.byte -57
.byte -23
.byte -116
.byte -26
.byte -39
.byte 5
.byte -9
.byte 120
.byte -12
.byte -93
.byte -45
.byte 78
.byte -25
.byte 80
.byte -7
.byte 97
.byte 4
.byte -50
.byte -7
.byte 103
.byte -63
.byte 62
.byte 103
.byte -49
.byte -81
.byte 35
.byte 119
.byte -3
.byte 126
.byte -102
.byte -67
.byte 108
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -78
.byte -2
.byte 43
.byte -45
.byte 30
.byte -126
.byte 14
.byte 80
.byte -90
.byte -109
.byte -79
.byte 3
.byte -34
.byte -59
.byte 38
.byte 24
.byte 11
.byte 125
.byte -121
.byte 41
.byte -8
.byte 113
.byte -89
.byte -113
.byte -53
.byte -73
.byte -103
.byte 68
.byte -94
.byte -57
.byte 101
.byte -21
.byte -78
.byte 8
.byte 43
.byte 2
.byte 30
.byte 8
.byte 14
.byte 6
.byte -90
.byte 1
.byte -79
.byte 0
.byte -34
.byte 11
.byte 38
.byte 6
.byte 11
.byte 12
.byte -121
.byte 4
.byte -8
.byte 9
.byte -89
.byte 10
.byte -53
.byte 6
.byte -103
.byte 9
.byte -94
.byte 1
.byte 101
.byte 12
.byte -82
.byte 43
.byte 75
.byte 52
.byte 103
.byte -56
.byte 105
.byte -85
.byte 75
.byte 51
.byte 22
.byte -18
.byte 53
.byte 90
.byte 117
.byte 21
.byte 10
.byte -127
.byte 110
.byte 118
.byte -53
.byte -74
.byte 95
.byte 49
.byte -124
.byte 78
.byte 93
.byte 72
.byte 73
.byte 76
.byte -74
.byte -50
.byte -82
.byte 1
.byte 75
.byte 3
.byte 103
.byte 3
.byte 105
.byte 0
.byte 75
.byte 2
.byte 22
.byte 12
.byte 53
.byte 11
.byte 117
.byte 6
.byte 10
.byte 3
.byte 110
.byte 12
.byte -53
.byte 5
.byte 95
.byte 4
.byte -124
.byte 2
.byte 93
.byte 1
.byte 73
.byte 1
.byte -74
.byte 12
.byte 20
.byte 3
.byte 20
.byte 3
.byte 20
.byte 7
.byte 20
.byte 7
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte 31
.byte 110
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte -54
.byte -66
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte 31
.byte 1
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -54
.byte 0
.byte -62
.byte 41
.byte -62
.byte 41
.byte -62
.byte 41
.byte -62
.byte 41
.byte 79
.byte 5
.byte 79
.byte 5
.byte 79
.byte 5
.byte 79
.byte 5
.byte 63
.byte -44
.byte 63
.byte -44
.byte 63
.byte -44
.byte 63
.byte -44
.byte -68
.byte 121
.byte -68
.byte 121
.byte -68
.byte 121
.byte -68
.byte 121
.byte -62
.byte 3
.byte -62
.byte 3
.byte -62
.byte 3
.byte -62
.byte 3
.byte 79
.byte 8
.byte 79
.byte 8
.byte 79
.byte 8
.byte 79
.byte 8
.byte 63
.byte 7
.byte 63
.byte 7
.byte 63
.byte 7
.byte 63
.byte 7
.byte -68
.byte 5
.byte -68
.byte 5
.byte -68
.byte 5
.byte -68
.byte 5
.byte 88
.byte -110
.byte 88
.byte -110
.byte -7
.byte 94
.byte -7
.byte 94
.byte -36
.byte -42
.byte -36
.byte -42
.byte 96
.byte 34
.byte 96
.byte 34
.byte -5
.byte 71
.byte -5
.byte 71
.byte -101
.byte 34
.byte -101
.byte 34
.byte 52
.byte 104
.byte 52
.byte 104
.byte -34
.byte -64
.byte -34
.byte -64
.byte 88
.byte 10
.byte 88
.byte 10
.byte -7
.byte 3
.byte -7
.byte 3
.byte -36
.byte 2
.byte -36
.byte 2
.byte 96
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -5
.byte 6
.byte -101
.byte 1
.byte -101
.byte 1
.byte 52
.byte 12
.byte 52
.byte 12
.byte -34
.byte 6
.byte -34
.byte 6
.byte -84
.byte 77
.byte -89
.byte -111
.byte -14
.byte -63
.byte 62
.byte -35
.byte 107
.byte -111
.byte 116
.byte 35
.byte 10
.byte -118
.byte 74
.byte 71
.byte 115
.byte 52
.byte -63
.byte 54
.byte 29
.byte -114
.byte 44
.byte -50
.byte -64
.byte 65
.byte -40
.byte 16
.byte -91
.byte -95
.byte 6
.byte -70
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte 49
.byte -122
.byte 91
.byte 99
.byte 42
.byte -29
.byte 72
.byte 95
.byte 66
.byte -82
.byte -62
.byte 42
.byte -105
.byte 94
.byte 94
.byte 66
.byte 96
.byte 40
.byte 3
.byte -31
.byte 27
.byte -88
.byte -101
.byte 42
.byte -107
.byte 123
.byte -28
.byte 111
.byte -66
.byte 93
.byte -14
.byte -69
.byte 49
.byte 3
.byte 91
.byte 2
.byte 42
.byte 5
.byte 72
.byte 7
.byte 66
.byte 8
.byte -62
.byte 4
.byte -105
.byte 9
.byte 94
.byte 8
.byte 96
.byte 8
.byte 3
.byte 8
.byte 27
.byte 7
.byte -101
.byte 9
.byte -107
.byte 12
.byte -28
.byte 3
.byte -66
.byte 3
.byte -14
.byte 5
.byte 73
.byte 79
.byte 98
.byte 8
.byte -4
.byte 59
.byte -128
.byte -127
.byte 121
.byte -25
.byte -54
.byte -59
.byte -36
.byte -44
.byte -122
.byte 56
.byte 7
.byte -84
.byte 26
.byte -79
.byte -85
.byte 90
.byte -34
.byte -69
.byte -51
.byte -94
.byte -33
.byte -80
.byte 77
.byte 30
.byte 92
.byte 90
.byte 73
.byte 4
.byte 98
.byte 2
.byte -4
.byte 7
.byte -128
.byte 1
.byte 121
.byte 12
.byte -54
.byte 7
.byte -36
.byte 0
.byte -122
.byte 6
.byte 7
.byte 7
.byte 26
.byte 3
.byte -85
.byte 9
.byte -34
.byte 1
.byte -51
.byte 11
.byte -33
.byte 3
.byte 77
.byte 7
.byte 92
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 7
.byte 0
.byte 1
.byte 2
.byte 3
.byte 4
.byte 5
.byte 6
.byte 15
.byte 8
.byte 9
.byte 10
.byte 11
.byte 12
.byte 13
.byte 14
.byte 23
.byte 16
.byte 17
.byte 18
.byte 19
.byte 20
.byte 21
.byte 22
.byte 31
.byte 24
.byte 25
.byte 26
.byte 27
.byte 28
.byte 29
.byte 30
.byte 1
.byte 2
.byte 3
.byte 4
.byte 5
.byte 6
.byte 7
.byte 0
.byte 9
.byte 10
.byte 11
.byte 12
.byte 13
.byte 14
.byte 15
.byte 8
.byte 17
.byte 18
.byte 19
.byte 20
.byte 21
.byte 22
.byte 23
.byte 16
.byte 25
.byte 26
.byte 27
.byte 28
.byte 29
.byte 30
.byte 31
.byte 24
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 1
.byte 4
.byte 5
.byte 8
.byte 9
.byte 12
.byte 13
.byte 2
.byte 3
.byte 6
.byte 7
.byte 10
.byte 11
.byte 14
.byte 15
.byte 3
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte -1
.byte -1
.byte -1
.byte -1
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte -1
.byte -1
.byte -1
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte -1
.byte -1
.byte -1
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte -1
.byte -1
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 12
.byte -1
.byte -1
.byte -1
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte -1
.byte -1
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte -1
.byte -1
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte -1
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 14
.byte -1
.byte -1
.byte -1
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 14
.byte -1
.byte -1
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 14
.byte -1
.byte -1
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 14
.byte -1
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 12
.byte 14
.byte -1
.byte -1
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 12
.byte 14
.byte -1
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 2
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 10
.byte 12
.byte 14
.byte -1
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte -1
.byte 0
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 2
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 2
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 4
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte -1
.byte 0
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 2
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte -1
.byte 0
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte -1
.byte 0
.byte 2
.byte 4
.byte 6
.byte 8
.byte 10
.byte 12
.byte 14
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 4
.byte 1
.byte 0
.byte 0
.byte 4
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -8
.byte 31
.byte -32
.byte 127
.byte 4
.byte 52
.byte 1
.byte 13
.byte 0
.byte 8
.byte -128
.byte 0
.byte 15
.byte 0
.byte -16
.byte 0
.byte -1
.byte 15
.byte -1
.byte 3
.byte 0
.byte 16
.byte 15
.byte 0
.byte 1
.byte 16
.byte 15
.byte 0
.byte 0
.byte 2
.byte 1
.byte 0
.byte 1
.byte 2
.byte -1
.byte 3
.byte 4
.byte 5
.byte -1
.byte 6
.byte 7
.byte 8
.byte -1
.byte 9
.byte 10
.byte 11
.byte -1
.byte 4
.byte 5
.byte 6
.byte -1
.byte 7
.byte 8
.byte 9
.byte -1
.byte 10
.byte 11
.byte 12
.byte -1
.byte 13
.byte 14
.byte 15
.byte -1
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -5
.byte 58
.byte -91
.byte 6
.byte 15
.byte 7
.byte -76
.byte 5
.byte 67
.byte 9
.byte 34
.byte 9
.byte 29
.byte 9
.byte 52
.byte 1
.byte 108
.byte 0
.byte 35
.byte 11
.byte 102
.byte 3
.byte 86
.byte 3
.byte -26
.byte 5
.byte -25
.byte 9
.byte -2
.byte 4
.byte -6
.byte 5
.byte -95
.byte 4
.byte 123
.byte 6
.byte -93
.byte 4
.byte 37
.byte 12
.byte 106
.byte 3
.byte 55
.byte 5
.byte 63
.byte 8
.byte -120
.byte 0
.byte -65
.byte 4
.byte -127
.byte 11
.byte -71
.byte 5
.byte 5
.byte 5
.byte -41
.byte 7
.byte -97
.byte 10
.byte -90
.byte 10
.byte -72
.byte 8
.byte -48
.byte 9
.byte 75
.byte 0
.byte -100
.byte 0
.byte -72
.byte 11
.byte 95
.byte 11
.byte -92
.byte 11
.byte 104
.byte 3
.byte 125
.byte 10
.byte 54
.byte 6
.byte -94
.byte 8
.byte 90
.byte 2
.byte 54
.byte 7
.byte 9
.byte 3
.byte -109
.byte 0
.byte 122
.byte 8
.byte -9
.byte 9
.byte -10
.byte 0
.byte -116
.byte 6
.byte -37
.byte 6
.byte -52
.byte 1
.byte 35
.byte 1
.byte -21
.byte 0
.byte 80
.byte 12
.byte -74
.byte 10
.byte 91
.byte 11
.byte -104
.byte 12
.byte -13
.byte 6
.byte -102
.byte 9
.byte -29
.byte 4
.byte -74
.byte 9
.byte -42
.byte 10
.byte 83
.byte 11
.byte 79
.byte 4
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte 35
.byte 6
.byte -51
.byte 0
.byte 102
.byte 11
.byte 6
.byte 6
.byte -95
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte -87
.byte 2
.byte -126
.byte 0
.byte 66
.byte 6
.byte 79
.byte 7
.byte 61
.byte 3
.byte -126
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte -60
.byte 10
.byte 69
.byte 7
.byte -62
.byte 5
.byte -78
.byte 4
.byte 63
.byte 9
.byte 75
.byte 12
.byte -40
.byte 6
.byte -109
.byte 10
.byte -85
.byte 0
.byte 55
.byte 12
.byte -30
.byte 11
.byte 115
.byte 7
.byte 44
.byte 7
.byte -19
.byte 5
.byte 103
.byte 1
.byte -10
.byte 2
.byte -95
.byte 5
.byte -19
.byte 8
.byte 11
.byte 10
.byte -102
.byte 11
.byte 20
.byte 7
.byte -43
.byte 5
.byte -114
.byte 5
.byte 31
.byte 1
.byte -54
.byte 0
.byte 86
.byte 12
.byte 110
.byte 2
.byte 41
.byte 6
.byte -74
.byte 0
.byte -62
.byte 3
.byte 79
.byte 8
.byte 63
.byte 7
.byte -68
.byte 5
.byte 61
.byte 2
.byte -44
.byte 7
.byte 8
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -78
.byte 5
.byte -65
.byte 6
.byte 127
.byte 12
.byte 88
.byte 10
.byte -7
.byte 3
.byte -36
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -101
.byte 1
.byte 52
.byte 12
.byte -34
.byte 6
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte -78
.byte 8
.byte -82
.byte 1
.byte 43
.byte 2
.byte 75
.byte 3
.byte 30
.byte 8
.byte 103
.byte 3
.byte 14
.byte 6
.byte 105
.byte 0
.byte -90
.byte 1
.byte 75
.byte 2
.byte -79
.byte 0
.byte 22
.byte 12
.byte -34
.byte 11
.byte 53
.byte 11
.byte 38
.byte 6
.byte 117
.byte 6
.byte 11
.byte 12
.byte 10
.byte 3
.byte -121
.byte 4
.byte 110
.byte 12
.byte -8
.byte 9
.byte -53
.byte 5
.byte -89
.byte 10
.byte 95
.byte 4
.byte -53
.byte 6
.byte -124
.byte 2
.byte -103
.byte 9
.byte 93
.byte 1
.byte -94
.byte 1
.byte 73
.byte 1
.byte 101
.byte 12
.byte -74
.byte 12
.byte 49
.byte 3
.byte 73
.byte 4
.byte 91
.byte 2
.byte 98
.byte 2
.byte 42
.byte 5
.byte -4
.byte 7
.byte 72
.byte 7
.byte -128
.byte 1
.byte 66
.byte 8
.byte 121
.byte 12
.byte -62
.byte 4
.byte -54
.byte 7
.byte -105
.byte 9
.byte -36
.byte 0
.byte 94
.byte 8
.byte -122
.byte 6
.byte 96
.byte 8
.byte 7
.byte 7
.byte 3
.byte 8
.byte 26
.byte 3
.byte 27
.byte 7
.byte -85
.byte 9
.byte -101
.byte 9
.byte -34
.byte 1
.byte -107
.byte 12
.byte -51
.byte 11
.byte -28
.byte 3
.byte -33
.byte 3
.byte -66
.byte 3
.byte 77
.byte 7
.byte -14
.byte 5
.byte 92
.byte 6
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
verdict-x509/verdict
| 60,313
|
deps/libcrux/sys/libjade/jazz/chacha20_avx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx
.globl jade_stream_chacha_chacha20_ietf_amd64_avx
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_avx_xor
_jade_stream_chacha_chacha20_ietf_amd64_avx:
jade_stream_chacha_chacha20_ietf_amd64_avx:
movq %rsp, %r10
leaq -592(%rsp), %rsp
andq $-16, %rsp
cmpq $129, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$1
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu %xmm0, (%rsp)
vmovdqu %xmm1, 16(%rsp)
vmovdqu glob_data + 112(%rip), %xmm0
vmovdqu glob_data + 128(%rip), %xmm1
vmovdqu glob_data + 144(%rip), %xmm2
vmovdqu glob_data + 160(%rip), %xmm3
vpbroadcastd (%rcx), %xmm4
vpbroadcastd 4(%rcx), %xmm5
vpbroadcastd 8(%rcx), %xmm6
vpbroadcastd 12(%rcx), %xmm7
vpbroadcastd 16(%rcx), %xmm8
vpbroadcastd 20(%rcx), %xmm9
vpbroadcastd 24(%rcx), %xmm10
vpbroadcastd 28(%rcx), %xmm11
vmovdqu glob_data + 96(%rip), %xmm12
vpbroadcastd (%rdx), %xmm13
vpbroadcastd 4(%rdx), %xmm14
vpbroadcastd 8(%rdx), %xmm15
vmovdqu %xmm0, 336(%rsp)
vmovdqu %xmm1, 352(%rsp)
vmovdqu %xmm2, 368(%rsp)
vmovdqu %xmm3, 384(%rsp)
vmovdqu %xmm4, 400(%rsp)
vmovdqu %xmm5, 416(%rsp)
vmovdqu %xmm6, 432(%rsp)
vmovdqu %xmm7, 448(%rsp)
vmovdqu %xmm8, 464(%rsp)
vmovdqu %xmm9, 480(%rsp)
vmovdqu %xmm10, 496(%rsp)
vmovdqu %xmm11, 512(%rsp)
vmovdqu %xmm12, 528(%rsp)
vmovdqu %xmm13, 544(%rsp)
vmovdqu %xmm14, 560(%rsp)
vmovdqu %xmm15, 576(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$29
Ljade_stream_chacha_chacha20_ietf_amd64_avx$30:
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$31:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$31
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, (%rdi)
vmovdqu %xmm9, 16(%rdi)
vmovdqu %xmm1, 64(%rdi)
vmovdqu %xmm3, 80(%rdi)
vmovdqu %xmm5, 128(%rdi)
vmovdqu %xmm8, 144(%rdi)
vmovdqu %xmm0, 192(%rdi)
vmovdqu %xmm2, 208(%rdi)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu %xmm8, 32(%rdi)
vmovdqu %xmm9, 48(%rdi)
vmovdqu %xmm4, 96(%rdi)
vmovdqu %xmm5, 112(%rdi)
vmovdqu %xmm6, 160(%rdi)
vmovdqu %xmm7, 176(%rdi)
vmovdqu %xmm0, 224(%rdi)
vmovdqu %xmm1, 240(%rdi)
addq $256, %rdi
addq $-256, %rsi
vmovdqu glob_data + 0(%rip), %xmm0
vpaddd 528(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 528(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx$29:
cmpq $256, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$30
cmpq $0, %rsi
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$28:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$28
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, 208(%rsp)
vmovdqu %xmm9, 224(%rsp)
vmovdqu %xmm1, 240(%rsp)
vmovdqu %xmm3, 256(%rsp)
vmovdqu %xmm5, 272(%rsp)
vmovdqu %xmm8, 288(%rsp)
vmovdqu %xmm0, 304(%rsp)
vmovdqu %xmm2, 320(%rsp)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu 208(%rsp), %xmm13
vmovdqu 224(%rsp), %xmm12
vmovdqu %xmm8, %xmm11
vmovdqu %xmm9, %xmm10
vmovdqu 240(%rsp), %xmm9
vmovdqu 256(%rsp), %xmm8
vmovdqu %xmm4, %xmm3
vmovdqu %xmm5, %xmm2
cmpq $128, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$27
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
vmovdqu %xmm11, 32(%rdi)
vmovdqu %xmm10, 48(%rdi)
vmovdqu %xmm9, 64(%rdi)
vmovdqu %xmm8, 80(%rdi)
vmovdqu %xmm3, 96(%rdi)
vmovdqu %xmm2, 112(%rdi)
addq $128, %rdi
addq $-128, %rsi
vmovdqu 272(%rsp), %xmm13
vmovdqu 288(%rsp), %xmm12
vmovdqu %xmm6, %xmm11
vmovdqu %xmm7, %xmm10
vmovdqu 304(%rsp), %xmm9
vmovdqu 320(%rsp), %xmm8
vmovdqu %xmm0, %xmm3
vmovdqu %xmm1, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$27:
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$26
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
vmovdqu %xmm11, 32(%rdi)
vmovdqu %xmm10, 48(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %xmm9, %xmm13
vmovdqu %xmm8, %xmm12
vmovdqu %xmm3, %xmm11
vmovdqu %xmm2, %xmm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx$26:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$25
vmovdqu %xmm13, (%rdi)
vmovdqu %xmm12, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm11, %xmm13
vmovdqu %xmm10, %xmm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx$25:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$24
vmovdqu %xmm13, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm12, %xmm13
Ljade_stream_chacha_chacha20_ietf_amd64_avx$24:
vpextrq $0, %xmm13, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$21
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm13, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$23:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$21
Ljade_stream_chacha_chacha20_ietf_amd64_avx$22:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$21:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$22
Ljade_stream_chacha_chacha20_ietf_amd64_avx$20:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$1:
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu glob_data + 208(%rip), %xmm2
vmovdqu (%rcx), %xmm3
vmovdqu 16(%rcx), %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rdx), %xmm5, %xmm5
vpinsrq $1, 4(%rdx), %xmm5, %xmm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$17
Ljade_stream_chacha_chacha20_ietf_amd64_avx$18:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$19:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$19
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm7
vpaddd %xmm4, %xmm8, %xmm8
vpaddd %xmm5, %xmm9, %xmm9
vpaddd %xmm2, %xmm10, %xmm10
vpaddd %xmm3, %xmm11, %xmm11
vpaddd %xmm4, %xmm12, %xmm12
vpaddd %xmm5, %xmm13, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
vmovdqu %xmm6, (%rdi)
vmovdqu %xmm7, 16(%rdi)
vmovdqu %xmm8, 32(%rdi)
vmovdqu %xmm9, 48(%rdi)
vmovdqu %xmm10, 64(%rdi)
vmovdqu %xmm11, 80(%rdi)
vmovdqu %xmm12, 96(%rdi)
vmovdqu %xmm13, 112(%rdi)
addq $128, %rdi
addq $-128, %rsi
vpaddd glob_data + 16(%rip), %xmm5, %xmm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx$17:
cmpq $128, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx$18
cmpq $64, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$3
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$16:
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$16
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm2
vpaddd %xmm4, %xmm8, %xmm0
vpaddd %xmm5, %xmm9, %xmm1
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$15
vmovdqu %xmm6, (%rdi)
vmovdqu %xmm2, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm0, %xmm6
vmovdqu %xmm1, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$15:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$14
vmovdqu %xmm6, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm2, %xmm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx$14:
vpextrq $0, %xmm6, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$11
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm6, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$13:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$11
Ljade_stream_chacha_chacha20_ietf_amd64_avx$12:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$11:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$12
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx$3:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$10:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$10
vpaddd %xmm2, %xmm6, %xmm0
vpaddd %xmm3, %xmm7, %xmm1
vpaddd %xmm4, %xmm8, %xmm6
vpaddd %xmm5, %xmm9, %xmm7
vpaddd %xmm2, %xmm10, %xmm9
vpaddd %xmm3, %xmm11, %xmm8
vpaddd %xmm4, %xmm12, %xmm2
vpaddd %xmm5, %xmm13, %xmm3
vpaddd glob_data + 32(%rip), %xmm3, %xmm3
vmovdqu %xmm0, (%rdi)
vmovdqu %xmm1, 16(%rdi)
vmovdqu %xmm6, 32(%rdi)
vmovdqu %xmm7, 48(%rdi)
addq $64, %rdi
addq $-64, %rsi
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$9
vmovdqu %xmm9, (%rdi)
vmovdqu %xmm8, 16(%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %xmm2, %xmm9
vmovdqu %xmm3, %xmm8
Ljade_stream_chacha_chacha20_ietf_amd64_avx$9:
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$8
vmovdqu %xmm9, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vmovdqu %xmm8, %xmm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx$8:
vpextrq $0, %xmm9, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx$5
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm9, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx$6:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx$5:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx$2:
xorq %rax, %rax
movq %r10, %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_avx_xor:
jade_stream_chacha_chacha20_ietf_amd64_avx_xor:
movq %rsp, %r10
leaq -592(%rsp), %rsp
andq $-16, %rsp
cmpq $129, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu %xmm0, (%rsp)
vmovdqu %xmm1, 16(%rsp)
vmovdqu glob_data + 112(%rip), %xmm0
vmovdqu glob_data + 128(%rip), %xmm1
vmovdqu glob_data + 144(%rip), %xmm2
vmovdqu glob_data + 160(%rip), %xmm3
vpbroadcastd (%r8), %xmm4
vpbroadcastd 4(%r8), %xmm5
vpbroadcastd 8(%r8), %xmm6
vpbroadcastd 12(%r8), %xmm7
vpbroadcastd 16(%r8), %xmm8
vpbroadcastd 20(%r8), %xmm9
vpbroadcastd 24(%r8), %xmm10
vpbroadcastd 28(%r8), %xmm11
vmovdqu glob_data + 96(%rip), %xmm12
vpbroadcastd (%rcx), %xmm13
vpbroadcastd 4(%rcx), %xmm14
vpbroadcastd 8(%rcx), %xmm15
vmovdqu %xmm0, 336(%rsp)
vmovdqu %xmm1, 352(%rsp)
vmovdqu %xmm2, 368(%rsp)
vmovdqu %xmm3, 384(%rsp)
vmovdqu %xmm4, 400(%rsp)
vmovdqu %xmm5, 416(%rsp)
vmovdqu %xmm6, 432(%rsp)
vmovdqu %xmm7, 448(%rsp)
vmovdqu %xmm8, 464(%rsp)
vmovdqu %xmm9, 480(%rsp)
vmovdqu %xmm10, 496(%rsp)
vmovdqu %xmm11, 512(%rsp)
vmovdqu %xmm12, 528(%rsp)
vmovdqu %xmm13, 544(%rsp)
vmovdqu %xmm14, 560(%rsp)
vmovdqu %xmm15, 576(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30:
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$31
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vpxor (%rsi), %xmm7, %xmm4
vpxor 16(%rsi), %xmm9, %xmm6
vpxor 64(%rsi), %xmm1, %xmm1
vpxor 80(%rsi), %xmm3, %xmm3
vpxor 128(%rsi), %xmm5, %xmm5
vpxor 144(%rsi), %xmm8, %xmm7
vpxor 192(%rsi), %xmm0, %xmm0
vpxor 208(%rsi), %xmm2, %xmm2
vmovdqu %xmm4, (%rdi)
vmovdqu %xmm6, 16(%rdi)
vmovdqu %xmm1, 64(%rdi)
vmovdqu %xmm3, 80(%rdi)
vmovdqu %xmm5, 128(%rdi)
vmovdqu %xmm7, 144(%rdi)
vmovdqu %xmm0, 192(%rdi)
vmovdqu %xmm2, 208(%rdi)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vpxor 32(%rsi), %xmm8, %xmm2
vpxor 48(%rsi), %xmm9, %xmm3
vpxor 96(%rsi), %xmm4, %xmm4
vpxor 112(%rsi), %xmm5, %xmm5
vpxor 160(%rsi), %xmm6, %xmm6
vpxor 176(%rsi), %xmm7, %xmm7
vpxor 224(%rsi), %xmm0, %xmm0
vpxor 240(%rsi), %xmm1, %xmm1
vmovdqu %xmm2, 32(%rdi)
vmovdqu %xmm3, 48(%rdi)
vmovdqu %xmm4, 96(%rdi)
vmovdqu %xmm5, 112(%rdi)
vmovdqu %xmm6, 160(%rdi)
vmovdqu %xmm7, 176(%rdi)
vmovdqu %xmm0, 224(%rdi)
vmovdqu %xmm1, 240(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vmovdqu glob_data + 0(%rip), %xmm0
vpaddd 528(%rsp), %xmm0, %xmm0
vmovdqu %xmm0, 528(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$29:
cmpq $256, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$30
cmpq $0, %rdx
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
vmovdqu 336(%rsp), %xmm0
vmovdqu 352(%rsp), %xmm1
vmovdqu 368(%rsp), %xmm2
vmovdqu 384(%rsp), %xmm3
vmovdqu 400(%rsp), %xmm4
vmovdqu 416(%rsp), %xmm5
vmovdqu 432(%rsp), %xmm6
vmovdqu 448(%rsp), %xmm7
vmovdqu 464(%rsp), %xmm8
vmovdqu 480(%rsp), %xmm9
vmovdqu 496(%rsp), %xmm10
vmovdqu 512(%rsp), %xmm11
vmovdqu 528(%rsp), %xmm12
vmovdqu 544(%rsp), %xmm13
vmovdqu 560(%rsp), %xmm14
vmovdqu 576(%rsp), %xmm15
vmovdqu %xmm15, 32(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28:
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm0, %xmm0
vpxor %xmm0, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm8, %xmm8
vpxor %xmm8, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm1, %xmm1
vpxor %xmm1, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm9, %xmm9
vpxor %xmm9, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm2, %xmm2
vpxor %xmm2, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vmovdqu %xmm14, 48(%rsp)
vmovdqu 32(%rsp), %xmm14
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm11, %xmm11
vpxor %xmm11, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vmovdqu %xmm14, 64(%rsp)
vmovdqu 48(%rsp), %xmm14
vmovdqu %xmm14, 48(%rsp)
vmovdqu 64(%rsp), %xmm14
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $12, %xmm5, %xmm15
vpsrld $20, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vpaddd %xmm5, %xmm0, %xmm0
vpxor %xmm0, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm10, %xmm10
vpxor %xmm10, %xmm5, %xmm5
vpslld $7, %xmm5, %xmm15
vpsrld $25, %xmm5, %xmm5
vpxor %xmm15, %xmm5, %xmm5
vmovdqu %xmm14, 32(%rsp)
vmovdqu 48(%rsp), %xmm14
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb (%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $12, %xmm6, %xmm15
vpsrld $20, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm6, %xmm1, %xmm1
vpxor %xmm1, %xmm12, %xmm12
vpshufb 16(%rsp), %xmm12, %xmm12
vpaddd %xmm12, %xmm11, %xmm11
vpxor %xmm11, %xmm6, %xmm6
vpslld $7, %xmm6, %xmm15
vpsrld $25, %xmm6, %xmm6
vpxor %xmm15, %xmm6, %xmm6
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb (%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm15
vpsrld $20, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm7, %xmm2, %xmm2
vpxor %xmm2, %xmm13, %xmm13
vpshufb 16(%rsp), %xmm13, %xmm13
vpaddd %xmm13, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm15
vpsrld $25, %xmm7, %xmm7
vpxor %xmm15, %xmm7, %xmm7
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb (%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $12, %xmm4, %xmm15
vpsrld $20, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
vpaddd %xmm4, %xmm3, %xmm3
vpxor %xmm3, %xmm14, %xmm14
vpshufb 16(%rsp), %xmm14, %xmm14
vpaddd %xmm14, %xmm9, %xmm9
vpxor %xmm9, %xmm4, %xmm4
vpslld $7, %xmm4, %xmm15
vpsrld $25, %xmm4, %xmm4
vpxor %xmm15, %xmm4, %xmm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$28
vmovdqu 32(%rsp), %xmm15
vpaddd 336(%rsp), %xmm0, %xmm0
vpaddd 352(%rsp), %xmm1, %xmm1
vpaddd 368(%rsp), %xmm2, %xmm2
vpaddd 384(%rsp), %xmm3, %xmm3
vpaddd 400(%rsp), %xmm4, %xmm4
vpaddd 416(%rsp), %xmm5, %xmm5
vpaddd 432(%rsp), %xmm6, %xmm6
vpaddd 448(%rsp), %xmm7, %xmm7
vpaddd 464(%rsp), %xmm8, %xmm8
vpaddd 480(%rsp), %xmm9, %xmm9
vpaddd 496(%rsp), %xmm10, %xmm10
vpaddd 512(%rsp), %xmm11, %xmm11
vpaddd 528(%rsp), %xmm12, %xmm12
vpaddd 544(%rsp), %xmm13, %xmm13
vpaddd 560(%rsp), %xmm14, %xmm14
vpaddd 576(%rsp), %xmm15, %xmm15
vmovdqu %xmm8, 80(%rsp)
vmovdqu %xmm9, 96(%rsp)
vmovdqu %xmm10, 112(%rsp)
vmovdqu %xmm11, 128(%rsp)
vmovdqu %xmm12, 144(%rsp)
vmovdqu %xmm13, 160(%rsp)
vmovdqu %xmm14, 176(%rsp)
vmovdqu %xmm15, 192(%rsp)
vpunpckldq %xmm1, %xmm0, %xmm8
vpunpckhdq %xmm1, %xmm0, %xmm0
vpunpckldq %xmm3, %xmm2, %xmm1
vpunpckhdq %xmm3, %xmm2, %xmm2
vpunpckldq %xmm5, %xmm4, %xmm3
vpunpckhdq %xmm5, %xmm4, %xmm4
vpunpckldq %xmm7, %xmm6, %xmm5
vpunpckhdq %xmm7, %xmm6, %xmm6
vpunpcklqdq %xmm1, %xmm8, %xmm7
vpunpcklqdq %xmm5, %xmm3, %xmm9
vpunpckhqdq %xmm1, %xmm8, %xmm1
vpunpckhqdq %xmm5, %xmm3, %xmm3
vpunpcklqdq %xmm2, %xmm0, %xmm5
vpunpcklqdq %xmm6, %xmm4, %xmm8
vpunpckhqdq %xmm2, %xmm0, %xmm0
vpunpckhqdq %xmm6, %xmm4, %xmm2
vmovdqu %xmm7, 208(%rsp)
vmovdqu %xmm9, 224(%rsp)
vmovdqu %xmm1, 240(%rsp)
vmovdqu %xmm3, 256(%rsp)
vmovdqu %xmm5, 272(%rsp)
vmovdqu %xmm8, 288(%rsp)
vmovdqu %xmm0, 304(%rsp)
vmovdqu %xmm2, 320(%rsp)
vmovdqu 80(%rsp), %xmm0
vmovdqu 112(%rsp), %xmm1
vmovdqu 144(%rsp), %xmm2
vmovdqu 176(%rsp), %xmm3
vpunpckldq 96(%rsp), %xmm0, %xmm4
vpunpckhdq 96(%rsp), %xmm0, %xmm0
vpunpckldq 128(%rsp), %xmm1, %xmm5
vpunpckhdq 128(%rsp), %xmm1, %xmm1
vpunpckldq 160(%rsp), %xmm2, %xmm6
vpunpckhdq 160(%rsp), %xmm2, %xmm2
vpunpckldq 192(%rsp), %xmm3, %xmm7
vpunpckhdq 192(%rsp), %xmm3, %xmm3
vpunpcklqdq %xmm5, %xmm4, %xmm8
vpunpcklqdq %xmm7, %xmm6, %xmm9
vpunpckhqdq %xmm5, %xmm4, %xmm4
vpunpckhqdq %xmm7, %xmm6, %xmm5
vpunpcklqdq %xmm1, %xmm0, %xmm6
vpunpcklqdq %xmm3, %xmm2, %xmm7
vpunpckhqdq %xmm1, %xmm0, %xmm0
vpunpckhqdq %xmm3, %xmm2, %xmm1
vmovdqu 208(%rsp), %xmm2
vmovdqu 224(%rsp), %xmm12
vmovdqu %xmm8, %xmm11
vmovdqu %xmm9, %xmm10
vmovdqu 240(%rsp), %xmm9
vmovdqu 256(%rsp), %xmm8
vmovdqu %xmm5, %xmm3
cmpq $128, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27
vpxor (%rsi), %xmm2, %xmm2
vmovdqu %xmm2, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm2
vmovdqu %xmm2, 16(%rdi)
vpxor 32(%rsi), %xmm11, %xmm2
vmovdqu %xmm2, 32(%rdi)
vpxor 48(%rsi), %xmm10, %xmm2
vmovdqu %xmm2, 48(%rdi)
vpxor 64(%rsi), %xmm9, %xmm2
vmovdqu %xmm2, 64(%rdi)
vpxor 80(%rsi), %xmm8, %xmm2
vmovdqu %xmm2, 80(%rdi)
vpxor 96(%rsi), %xmm4, %xmm2
vmovdqu %xmm2, 96(%rdi)
vpxor 112(%rsi), %xmm3, %xmm2
vmovdqu %xmm2, 112(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vmovdqu 272(%rsp), %xmm2
vmovdqu 288(%rsp), %xmm12
vmovdqu %xmm6, %xmm11
vmovdqu %xmm7, %xmm10
vmovdqu 304(%rsp), %xmm9
vmovdqu 320(%rsp), %xmm8
vmovdqu %xmm0, %xmm4
vmovdqu %xmm1, %xmm3
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$27:
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm0
vmovdqu %xmm0, 16(%rdi)
vpxor 32(%rsi), %xmm11, %xmm0
vmovdqu %xmm0, 32(%rdi)
vpxor 48(%rsi), %xmm10, %xmm0
vmovdqu %xmm0, 48(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %xmm9, %xmm2
vmovdqu %xmm8, %xmm12
vmovdqu %xmm4, %xmm11
vmovdqu %xmm3, %xmm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$26:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm12, %xmm0
vmovdqu %xmm0, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm11, %xmm2
vmovdqu %xmm10, %xmm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$25:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm12, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$24:
vpextrq $0, %xmm2, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm2, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$23:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$21:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$22
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$20:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$1:
vmovdqu glob_data + 64(%rip), %xmm0
vmovdqu glob_data + 48(%rip), %xmm1
vmovdqu glob_data + 208(%rip), %xmm2
vmovdqu (%r8), %xmm3
vmovdqu 16(%r8), %xmm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rcx), %xmm5, %xmm5
vpinsrq $1, 4(%rcx), %xmm5, %xmm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$19
vpaddd %xmm2, %xmm6, %xmm6
vpaddd %xmm3, %xmm7, %xmm7
vpaddd %xmm4, %xmm8, %xmm8
vpaddd %xmm5, %xmm9, %xmm9
vpaddd %xmm2, %xmm10, %xmm10
vpaddd %xmm3, %xmm11, %xmm11
vpaddd %xmm4, %xmm12, %xmm12
vpaddd %xmm5, %xmm13, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
vpxor (%rsi), %xmm6, %xmm6
vmovdqu %xmm6, (%rdi)
vpxor 16(%rsi), %xmm7, %xmm6
vmovdqu %xmm6, 16(%rdi)
vpxor 32(%rsi), %xmm8, %xmm6
vmovdqu %xmm6, 32(%rdi)
vpxor 48(%rsi), %xmm9, %xmm6
vmovdqu %xmm6, 48(%rdi)
vpxor 64(%rsi), %xmm10, %xmm6
vmovdqu %xmm6, 64(%rdi)
vpxor 80(%rsi), %xmm11, %xmm6
vmovdqu %xmm6, 80(%rdi)
vpxor 96(%rsi), %xmm12, %xmm6
vmovdqu %xmm6, 96(%rdi)
vpxor 112(%rsi), %xmm13, %xmm6
vmovdqu %xmm6, 112(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vpaddd glob_data + 16(%rip), %xmm5, %xmm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$17:
cmpq $128, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$18
cmpq $64, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16:
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm0, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm10
vpsrld $20, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpaddd %xmm7, %xmm6, %xmm6
vpxor %xmm6, %xmm9, %xmm9
vpshufb %xmm1, %xmm9, %xmm9
vpaddd %xmm9, %xmm8, %xmm8
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm10
vpsrld $25, %xmm7, %xmm7
vpxor %xmm10, %xmm7, %xmm7
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$16
vpaddd %xmm2, %xmm6, %xmm2
vpaddd %xmm3, %xmm7, %xmm3
vpaddd %xmm4, %xmm8, %xmm0
vpaddd %xmm5, %xmm9, %xmm1
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15
vpxor (%rsi), %xmm2, %xmm2
vmovdqu %xmm2, (%rdi)
vpxor 16(%rsi), %xmm3, %xmm2
vmovdqu %xmm2, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm0, %xmm2
vmovdqu %xmm1, %xmm3
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$15:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14
vpxor (%rsi), %xmm2, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm3, %xmm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$14:
vpextrq $0, %xmm2, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm2, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$13:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$11:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$12
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$3:
vmovdqu %xmm2, %xmm6
vmovdqu %xmm3, %xmm7
vmovdqu %xmm4, %xmm8
vmovdqu %xmm5, %xmm9
vmovdqu %xmm2, %xmm10
vmovdqu %xmm3, %xmm11
vmovdqu %xmm4, %xmm12
vmovdqu %xmm5, %xmm13
vpaddd glob_data + 32(%rip), %xmm13, %xmm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10:
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $57, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $-109, %xmm9, %xmm9
vpshufd $57, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $-109, %xmm13, %xmm13
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm0, %xmm9, %xmm9
vpshufb %xmm0, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $12, %xmm7, %xmm14
vpsrld $20, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $12, %xmm11, %xmm14
vpsrld $20, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpaddd %xmm7, %xmm6, %xmm6
vpaddd %xmm11, %xmm10, %xmm10
vpxor %xmm6, %xmm9, %xmm9
vpxor %xmm10, %xmm13, %xmm13
vpshufb %xmm1, %xmm9, %xmm9
vpshufb %xmm1, %xmm13, %xmm13
vpaddd %xmm9, %xmm8, %xmm8
vpaddd %xmm13, %xmm12, %xmm12
vpxor %xmm8, %xmm7, %xmm7
vpslld $7, %xmm7, %xmm14
vpsrld $25, %xmm7, %xmm7
vpxor %xmm12, %xmm11, %xmm11
vpxor %xmm14, %xmm7, %xmm7
vpslld $7, %xmm11, %xmm14
vpsrld $25, %xmm11, %xmm11
vpxor %xmm14, %xmm11, %xmm11
vpshufd $-109, %xmm7, %xmm7
vpshufd $78, %xmm8, %xmm8
vpshufd $57, %xmm9, %xmm9
vpshufd $-109, %xmm11, %xmm11
vpshufd $78, %xmm12, %xmm12
vpshufd $57, %xmm13, %xmm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$10
vpaddd %xmm2, %xmm6, %xmm0
vpaddd %xmm3, %xmm7, %xmm1
vpaddd %xmm4, %xmm8, %xmm6
vpaddd %xmm5, %xmm9, %xmm7
vpaddd %xmm2, %xmm10, %xmm9
vpaddd %xmm3, %xmm11, %xmm8
vpaddd %xmm4, %xmm12, %xmm2
vpaddd %xmm5, %xmm13, %xmm3
vpaddd glob_data + 32(%rip), %xmm3, %xmm3
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm1, %xmm0
vmovdqu %xmm0, 16(%rdi)
vpxor 32(%rsi), %xmm6, %xmm0
vmovdqu %xmm0, 32(%rdi)
vpxor 48(%rsi), %xmm7, %xmm0
vmovdqu %xmm0, 48(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9
vpxor (%rsi), %xmm9, %xmm0
vmovdqu %xmm0, (%rdi)
vpxor 16(%rsi), %xmm8, %xmm0
vmovdqu %xmm0, 16(%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %xmm2, %xmm9
vmovdqu %xmm3, %xmm8
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$9:
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8
vpxor (%rsi), %xmm9, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vmovdqu %xmm8, %xmm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$8:
vpextrq $0, %xmm9, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm9, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$5:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx_xor$2:
xorq %rax, %rax
movq %r10, %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
|
verdict-x509/verdict
| 128,503
|
deps/libcrux/sys/libjade/jazz/x25519_mulx.s
|
.att_syntax
.text
.p2align 5
.globl _jade_scalarmult_curve25519_amd64_mulx_base
.globl jade_scalarmult_curve25519_amd64_mulx_base
.globl _jade_scalarmult_curve25519_amd64_mulx
.globl jade_scalarmult_curve25519_amd64_mulx
_jade_scalarmult_curve25519_amd64_mulx_base:
jade_scalarmult_curve25519_amd64_mulx_base:
movq %rsp, %rax
leaq -408(%rsp), %rsp
andq $-8, %rsp
movq %rax, 400(%rsp)
movq %rbx, 352(%rsp)
movq %rbp, 360(%rsp)
movq %r12, 368(%rsp)
movq %r13, 376(%rsp)
movq %r14, 384(%rsp)
movq %r15, 392(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 24(%rsp)
movq 8(%rsi), %rax
movq %rax, 32(%rsp)
movq 16(%rsi), %rax
movq %rax, 40(%rsp)
movq 24(%rsi), %rax
movq %rax, 48(%rsp)
andb $-8, 24(%rsp)
andb $127, 55(%rsp)
orb $64, 55(%rsp)
movq $9, %rcx
movq $0, %rdx
movq $0, %r9
movq $0, %r10
xorq %r11, %r11
movq $1, 56(%rsp)
movq $0, %rax
movq %rcx, 88(%rsp)
movq %rdx, 96(%rsp)
movq %r9, 104(%rsp)
movq %r10, 112(%rsp)
movq $1, 120(%rsp)
movq %r11, 64(%rsp)
movq %r11, %r8
movq %r11, 128(%rsp)
movq %r11, 72(%rsp)
movq %r11, %rsi
movq %r11, 136(%rsp)
movq %r11, 80(%rsp)
movq %r11, %rdi
movq %r11, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rdx, 160(%rsp)
movq %r9, 168(%rsp)
movq %r10, 176(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_mulx_base$9:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movzbq 24(%rsp,%rdx), %rdx
andq $7, %rcx
shrq %cl, %rdx
andq $1, %rdx
movq 8(%rsp), %r9
xorq %rdx, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq %rax, %rbp
movq %r8, %r12
movq %rsi, %r13
movq %rdi, %r14
xorq %r9, %rbp
xorq %r10, %r12
xorq %r11, %r13
xorq %rbx, %r14
andq %rcx, %rbp
andq %rcx, %r12
andq %rcx, %r13
andq %rcx, %r14
xorq %rbp, %rax
xorq %rbp, %r9
movq %r9, 120(%rsp)
xorq %r12, %r8
xorq %r12, %r10
movq %r10, 128(%rsp)
xorq %r13, %rsi
xorq %r13, %r11
movq %r11, 136(%rsp)
xorq %r14, %rdi
xorq %r14, %rbx
movq %rbx, 144(%rsp)
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r9
movq 112(%rsp), %r10
movq 56(%rsp), %rbp
movq %r11, %r12
xorq %rbp, %r12
andq %rcx, %r12
xorq %r12, %rbp
xorq %r12, %r11
movq %rbp, 56(%rsp)
movq %r11, 88(%rsp)
movq 64(%rsp), %r11
movq %rbx, %rbp
xorq %r11, %rbp
andq %rcx, %rbp
xorq %rbp, %r11
xorq %rbp, %rbx
movq %r11, 64(%rsp)
movq %rbx, 96(%rsp)
movq 72(%rsp), %r11
movq %r9, %rbx
xorq %r11, %rbx
andq %rcx, %rbx
xorq %rbx, %r11
xorq %rbx, %r9
movq %r11, 72(%rsp)
movq %r9, 104(%rsp)
movq 80(%rsp), %r9
movq %r10, %r11
xorq %r9, %r11
andq %rcx, %r11
xorq %r11, %r9
xorq %r11, %r10
movq %r9, 80(%rsp)
movq %r10, 112(%rsp)
movq %rdx, 8(%rsp)
xorq %rcx, %rcx
movq 56(%rsp), %rdx
movq 64(%rsp), %r9
movq 72(%rsp), %r10
movq 80(%rsp), %r11
subq %rax, %rdx
sbbq %r8, %r9
sbbq %rsi, %r10
sbbq %rdi, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
movq %rdx, 184(%rsp)
movq %r9, 192(%rsp)
movq %r10, 200(%rsp)
movq %r11, 208(%rsp)
xorq %rcx, %rcx
addq 56(%rsp), %rax
adcq 64(%rsp), %r8
adcq 72(%rsp), %rsi
adcq 80(%rsp), %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
adcq $0, %r8
adcq $0, %rsi
adcq $0, %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
movq %rax, 216(%rsp)
movq %r8, 224(%rsp)
movq %rsi, 232(%rsp)
movq %rdi, 240(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
subq 120(%rsp), %rax
sbbq 128(%rsp), %rcx
sbbq 136(%rsp), %rdx
sbbq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
sbbq $0, %rcx
sbbq $0, %rdx
sbbq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
movq %rax, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdx, 264(%rsp)
movq %rsi, 272(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
addq 120(%rsp), %rax
adcq 128(%rsp), %rcx
adcq 136(%rsp), %rdx
adcq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdx, 296(%rsp)
movq %rsi, 304(%rsp)
movq 248(%rsp), %r9
movq 256(%rsp), %r10
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
xorq %rax, %rax
movq 216(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 224(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 232(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 240(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdi, 264(%rsp)
movq %r8, 272(%rsp)
movq 184(%rsp), %r9
movq 192(%rsp), %r10
movq 200(%rsp), %r11
movq 208(%rsp), %rbx
xorq %rax, %rax
movq 280(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 288(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 296(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 304(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r8, 304(%rsp)
movq 216(%rsp), %rdx
movq 224(%rsp), %r11
movq 232(%rsp), %r13
movq 240(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 216(%rsp)
movq %r8, 224(%rsp)
movq %rdi, 232(%rsp)
movq %r9, 240(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %r8, %r8
MULXq %rdx, %rax, %r9
MULXq %r11, %rsi, %rcx
MULXq %r13, %r10, %rdi
adcxq %r10, %rcx
MULXq %rbx, %rdx, %r10
adcxq %rdx, %rdi
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %rdi
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %r13
adoxq %r8, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %rsi, %rsi
adoxq %r9, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rdi, %rdi
adoxq %rbp, %rdi
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %r8, %rbx
adoxq %r8, %rbx
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r13, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %rbx, %r9, %rdx
adoxq %r9, %rdi
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rax
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
addq 280(%rsp), %rdx
adcq 288(%rsp), %r8
adcq 296(%rsp), %r9
adcq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
adcq $0, %r8
adcq $0, %r9
adcq $0, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r9, 200(%rsp)
movq %r10, 208(%rsp)
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
subq 280(%rsp), %rdx
sbbq 288(%rsp), %r8
sbbq 296(%rsp), %r9
sbbq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
sbbq $0, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
movq %rdx, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
xorq %rdx, %rdx
movq 216(%rsp), %r8
movq 224(%rsp), %r9
movq 232(%rsp), %r10
movq 240(%rsp), %r11
subq %rax, %r8
sbbq %rsi, %r9
sbbq %rcx, %r10
sbbq %rdi, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
movq %r8, 248(%rsp)
movq %r9, 256(%rsp)
movq %r10, 264(%rsp)
movq %r11, 272(%rsp)
xorq %r8, %r8
movq 216(%rsp), %rdx
MULXq %rax, %r10, %r9
MULXq %rsi, %rbx, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbp, %rbx
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %r8, %rbp
movq 224(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rcx, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 232(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rsi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 240(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %rbx
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %r8, %r9
adcq %r8, %r11
adcq %r8, %rbx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r10
movq %r10, 56(%rsp)
movq %r9, 64(%rsp)
movq %r11, 72(%rsp)
movq %rbx, 80(%rsp)
movq 280(%rsp), %rdx
movq 288(%rsp), %r11
movq 296(%rsp), %r13
movq 304(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq $121665, %rdx
MULXq 248(%rsp), %rcx, %rax
MULXq 256(%rsp), %rdi, %rsi
addq %rdi, %rax
MULXq 264(%rsp), %r8, %rdi
adcq %r8, %rsi
MULXq 272(%rsp), %r9, %r8
adcq %r9, %rdi
adcq $0, %r8
imulq $38, %r8, %r8
addq %r8, %rcx
adcq $0, %rax
adcq $0, %rsi
adcq $0, %rdi
sbbq %rdx, %rdx
andq $38, %rdx
addq %rdx, %rcx
movq %rcx, 312(%rsp)
movq %rax, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %r9, 112(%rsp)
movq 216(%rsp), %rax
movq 224(%rsp), %rcx
movq 232(%rsp), %rdx
movq 240(%rsp), %rsi
xorq %rdi, %rdi
addq 312(%rsp), %rax
adcq 320(%rsp), %rcx
adcq 328(%rsp), %rdx
adcq 336(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq 280(%rsp), %r9
movq 288(%rsp), %r10
movq 296(%rsp), %r11
movq 304(%rsp), %rbx
xorq %rax, %rax
movq 152(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 160(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 168(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 176(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 312(%rsp), %r9
movq 320(%rsp), %r10
movq 328(%rsp), %r11
movq 336(%rsp), %rbx
xorq %rcx, %rcx
movq 248(%rsp), %rdx
MULXq %r9, %rax, %r8
MULXq %r10, %rdi, %rsi
adcxq %rdi, %r8
MULXq %r11, %rbp, %rdi
adcxq %rbp, %rsi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %rdi
adcxq %rcx, %rbp
movq 256(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rsi
MULXq %r10, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rdi
MULXq %r11, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 264(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r10, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 272(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %rdi
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rcx, %r9
adoxq %rcx, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %r8
MULXq %r12, %r11, %r10
adoxq %r11, %r8
adcxq %r10, %rsi
MULXq %r13, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rdi
MULXq %r9, %r9, %rdx
adoxq %r9, %rdi
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %rcx, %r8
adcq %rcx, %rsi
adcq %rcx, %rdi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rax
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_mulx_base$9
movq %rax, 120(%rsp)
movq %r8, 128(%rsp)
movq %rsi, 136(%rsp)
movq %rdi, 144(%rsp)
xorq %r9, %r9
movq %rax, %rdx
MULXq %rdx, %r10, %rbx
MULXq %r8, %r11, %rcx
MULXq %rsi, %rbp, %rax
adcxq %rbp, %rcx
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rsi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %rdi, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %rdi, %r14, %rsi
adcxq %r14, %r8
adoxq %r9, %r8
adcxq %r9, %rsi
adoxq %r9, %rsi
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r9, %rdi
adoxq %r9, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r10
adcxq %rbx, %r11
MULXq %r8, %rbx, %r8
adoxq %rbx, %r11
adcxq %r8, %rcx
MULXq %rsi, %r8, %rsi
adoxq %r8, %rcx
adcxq %rsi, %rax
MULXq %rdi, %rsi, %rdx
adoxq %rsi, %rax
adcxq %r9, %rdx
adoxq %r9, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r10
adcq %r9, %r11
adcq %r9, %rcx
adcq %r9, %rax
sbbq %r9, %r9
andq $38, %r9
addq %r9, %r10
movq %r10, 88(%rsp)
movq %r11, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rax, 112(%rsp)
xorq %rsi, %rsi
movq %r10, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r11, %r10, %r9
MULXq %rcx, %rbp, %r8
adcxq %rbp, %r9
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r8
movq %r11, %rdx
MULXq %rcx, %r12, %r11
adoxq %r12, %r8
adcxq %r11, %rbp
MULXq %rax, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rax, %r14, %rcx
adcxq %r14, %r11
adoxq %rsi, %r11
adcxq %rsi, %rcx
adoxq %rsi, %rcx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r10, %r10
adoxq %rbx, %r10
adcxq %r9, %r9
adoxq %r13, %r9
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r10
MULXq %r11, %rbx, %r11
adoxq %rbx, %r10
adcxq %r11, %r9
MULXq %rcx, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %rsi, %r10
adcq %rsi, %r9
adcq %rsi, %r8
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r10, %rsi, %rcx
MULXq %r9, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rdi
movq %r10, %rdx
MULXq %r9, %r12, %r10
adoxq %r12, %rdi
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r8, %r14, %r9
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r9
adoxq %r11, %r9
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %r9, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r8, %r8, %rdx
adoxq %r8, %rdi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rax, %rbx, %r8
MULXq %rsi, %r10, %r9
adcxq %r10, %r8
MULXq %rcx, %rbp, %r10
adcxq %rbp, %r9
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r10
adcxq %r11, %rbp
movq 128(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rsi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rcx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r10
MULXq %rsi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r10
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %rbx
adcxq %rcx, %r8
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r9
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %r11, %r8
adcq %r11, %r9
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbx
movq %rbx, 120(%rsp)
movq %r8, 128(%rsp)
movq %r9, 136(%rsp)
movq %r10, 144(%rsp)
xorq %rcx, %rcx
movq 88(%rsp), %rdx
MULXq %rbx, %rsi, %r11
MULXq %r8, %rax, %rbp
adcxq %rax, %r11
MULXq %r9, %rdi, %rax
adcxq %rdi, %rbp
MULXq %r10, %rdx, %rdi
adcxq %rdx, %rax
adcxq %rcx, %rdi
movq 96(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %r8, %r13, %r12
adoxq %r13, %rbp
adcxq %r12, %rax
MULXq %r9, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rdi
MULXq %r10, %rdx, %r12
adoxq %rdx, %rdi
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 104(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %rax
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rdi
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 112(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rax
adcxq %rbx, %rdi
MULXq %r8, %rbx, %r8
adoxq %rbx, %rdi
adcxq %r8, %r12
MULXq %r9, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rdi, %r9, %rdi
adoxq %r9, %rsi
adcxq %rdi, %r11
MULXq %r12, %r9, %rdi
adoxq %r9, %r11
adcxq %rdi, %rbp
MULXq %r13, %r9, %rdi
adoxq %r9, %rbp
adcxq %rdi, %rax
MULXq %r8, %rdi, %rdx
adoxq %rdi, %rax
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rcx, %r11
adcq %rcx, %rbp
adcq %rcx, %rax
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rsi
movq %rsi, 88(%rsp)
movq %r11, 96(%rsp)
movq %rbp, 104(%rsp)
movq %rax, 112(%rsp)
xorq %r8, %r8
movq %rsi, %rdx
MULXq %rdx, %rcx, %r10
MULXq %r11, %rdi, %rsi
MULXq %rbp, %rbx, %r9
adcxq %rbx, %rsi
MULXq %rax, %rdx, %rbx
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %rbp, %r12, %r11
adoxq %r12, %r9
adcxq %r11, %rbx
MULXq %rax, %r12, %r11
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rbp, %rdx
MULXq %rax, %r14, %rbp
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %rbp
adoxq %r8, %rbp
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %rdi, %rdi
adoxq %r10, %rdi
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %rbp, %rbp
adoxq %rdx, %rbp
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %rcx
adcxq %r10, %rdi
MULXq %r11, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rsi
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rcx
adcq %r8, %rdi
adcq %r8, %rsi
adcq %r8, %r9
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rcx
xorq %rax, %rax
movq 120(%rsp), %rdx
MULXq %rcx, %rbx, %r10
MULXq %rdi, %r8, %r11
adcxq %r8, %r10
MULXq %rsi, %rbp, %r8
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 128(%rsp), %rdx
MULXq %rcx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rdi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %r8
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 136(%rsp), %rdx
MULXq %rcx, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r8
MULXq %rdi, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 144(%rsp), %rdx
MULXq %rcx, %r14, %rcx
adoxq %r14, %r8
adcxq %rcx, %rbp
MULXq %rdi, %rdi, %rcx
adoxq %rdi, %rbp
adcxq %rcx, %r12
MULXq %rsi, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %r9, %rdx, %rcx
adoxq %rdx, %r13
adcxq %rax, %rcx
adoxq %rax, %rcx
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r10
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r11
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r11
adcxq %rsi, %r8
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r8
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rbx
adcq %rax, %r10
adcq %rax, %r11
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rbx
movq %rbx, 120(%rsp)
movq %r10, 128(%rsp)
movq %r11, 136(%rsp)
movq %r8, 144(%rsp)
xorq %r9, %r9
movq %rbx, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r10, %rsi, %rax
MULXq %r11, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rcx
movq %r10, %rdx
MULXq %r11, %r12, %r10
adoxq %r12, %rcx
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r11, %rdx
MULXq %r8, %r14, %r11
adcxq %r14, %r10
adoxq %r9, %r10
adcxq %r9, %r11
adoxq %r9, %r11
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r11, %r11
adoxq %rdx, %r11
adcxq %r9, %r8
adoxq %r9, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rax
MULXq %r11, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rcx
MULXq %r8, %r8, %rdx
adoxq %r8, %rcx
adcxq %r9, %rdx
adoxq %r9, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r9, %rsi
adcq %r9, %rax
adcq %r9, %rcx
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rdi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$8:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rsi, %r9, %r8
MULXq %rax, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rax, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rcx, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rcx, %r14, %rax
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rax
adoxq %r11, %rax
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %r8
MULXq %rax, %rsi, %rax
adoxq %rsi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rsi, %rax
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rax
MULXq %r8, %r9, %r8
adoxq %r9, %rax
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rsi
adcq %r11, %rax
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$8
xorq %r10, %r10
movq 120(%rsp), %rdx
MULXq %rdi, %r12, %r8
MULXq %rsi, %r9, %r11
adcxq %r9, %r8
MULXq %rax, %rbx, %r9
adcxq %rbx, %r11
MULXq %rcx, %rdx, %rbx
adcxq %rdx, %r9
adcxq %r10, %rbx
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %rbp
adoxq %r13, %r8
adcxq %rbp, %r11
MULXq %rsi, %r13, %rbp
adoxq %r13, %r11
adcxq %rbp, %r9
MULXq %rax, %r13, %rbp
adoxq %r13, %r9
adcxq %rbp, %rbx
MULXq %rcx, %rdx, %rbp
adoxq %rdx, %rbx
adcxq %r10, %rbp
adoxq %r10, %rbp
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r9
MULXq %rsi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbx
MULXq %rax, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %rdx, %r13
adoxq %rdx, %rbp
adcxq %r10, %r13
adoxq %r10, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r9
adcxq %rdi, %rbx
MULXq %rsi, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %rbp
MULXq %rax, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %r10, %rax
adoxq %r10, %rax
movq $38, %rdx
MULXq %rbx, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r8
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %r12
adcq %r10, %r8
adcq %r10, %r11
adcq %r10, %r9
sbbq %r10, %r10
andq $38, %r10
addq %r10, %r12
movq %r12, 120(%rsp)
movq %r8, 128(%rsp)
movq %r11, 136(%rsp)
movq %r9, 144(%rsp)
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$7:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r12, %rdx
MULXq %rdx, %r10, %rbx
MULXq %r8, %rcx, %rax
MULXq %r11, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rsi
movq %r8, %rdx
MULXq %r11, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rbp
MULXq %r9, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r11, %rdx
MULXq %r9, %r14, %r11
adcxq %r14, %r8
adoxq %rdi, %r8
adcxq %rdi, %r11
adoxq %rdi, %r11
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %r11, %r11
adoxq %rdx, %r11
adcxq %rdi, %r9
adoxq %rdi, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r10
adcxq %rbx, %rcx
MULXq %r8, %rbx, %r8
adoxq %rbx, %rcx
adcxq %r8, %rax
MULXq %r11, %r11, %r8
adoxq %r11, %rax
adcxq %r8, %rsi
MULXq %r9, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r10
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r10
xorq %rdi, %rdi
movq %r10, %rdx
MULXq %rdx, %r12, %r10
MULXq %rcx, %r8, %r11
MULXq %rax, %rbx, %r9
adcxq %rbx, %r11
MULXq %rsi, %rdx, %rbx
adcxq %rdx, %r9
movq %rcx, %rdx
MULXq %rax, %rbp, %rcx
adoxq %rbp, %r9
adcxq %rcx, %rbx
MULXq %rsi, %rbp, %rcx
adoxq %rbp, %rbx
MULXq %rdx, %r13, %rbp
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %r10, %r8
adcxq %r11, %r11
adoxq %r13, %r11
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %r12
adcxq %r10, %r8
MULXq %rcx, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %rax, %r9
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r9
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r12
adcq %rdi, %r8
adcq %rdi, %r11
adcq %rdi, %r9
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r12
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$7
xorq %rax, %rax
movq 120(%rsp), %rdx
MULXq %r12, %rbp, %rbx
MULXq %r8, %rcx, %r10
adcxq %rcx, %rbx
MULXq %r11, %rsi, %rcx
adcxq %rsi, %r10
MULXq %r9, %rdx, %rsi
adcxq %rdx, %rcx
adcxq %rax, %rsi
movq 128(%rsp), %rdx
MULXq %r12, %r13, %rdi
adoxq %r13, %rbx
adcxq %rdi, %r10
MULXq %r8, %r13, %rdi
adoxq %r13, %r10
adcxq %rdi, %rcx
MULXq %r11, %r13, %rdi
adoxq %r13, %rcx
adcxq %rdi, %rsi
MULXq %r9, %rdx, %rdi
adoxq %rdx, %rsi
adcxq %rax, %rdi
adoxq %rax, %rdi
movq 136(%rsp), %rdx
MULXq %r12, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rcx
MULXq %r8, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rsi
MULXq %r11, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r9, %rdx, %r13
adoxq %rdx, %rdi
adcxq %rax, %r13
adoxq %rax, %r13
movq 144(%rsp), %rdx
MULXq %r12, %r14, %r12
adoxq %r14, %rcx
adcxq %r12, %rsi
MULXq %r8, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rdi
MULXq %r11, %r11, %r8
adoxq %r11, %rdi
adcxq %r8, %r13
MULXq %r9, %rdx, %r8
adoxq %rdx, %r13
adcxq %rax, %r8
adoxq %rax, %r8
movq $38, %rdx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbp
adcxq %rsi, %rbx
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r10
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %rcx
MULXq %r8, %rsi, %rdx
adoxq %rsi, %rcx
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbp
adcq %rax, %rbx
adcq %rax, %r10
adcq %rax, %rcx
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rbp
movq %rbp, 152(%rsp)
movq %rbx, 160(%rsp)
movq %r10, 168(%rsp)
movq %rcx, 176(%rsp)
movl $10, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$6:
movl %eax, 344(%rsp)
xorq %r8, %r8
movq %rbp, %rdx
MULXq %rdx, %r9, %r11
MULXq %rbx, %rsi, %rax
MULXq %r10, %rbp, %rdi
adcxq %rbp, %rax
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %rdi
movq %rbx, %rdx
MULXq %r10, %r12, %rbx
adoxq %r12, %rdi
adcxq %rbx, %rbp
MULXq %rcx, %r12, %rbx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %rcx, %r14, %r10
adcxq %r14, %rbx
adoxq %r8, %rbx
adcxq %r8, %r10
adoxq %r8, %r10
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %rsi, %rsi
adoxq %r11, %rsi
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rbx, %rbx
adoxq %r14, %rbx
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %r8, %rcx
adoxq %r8, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %rsi
MULXq %rbx, %rbx, %r11
adoxq %rbx, %rsi
adcxq %r11, %rax
MULXq %r10, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rdi
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rdi
adcxq %r8, %rcx
adoxq %r8, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r9
adcq %r8, %rsi
adcq %r8, %rax
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r9
xorq %r8, %r8
movq %r9, %rdx
MULXq %rdx, %rbp, %r9
MULXq %rsi, %rbx, %r10
MULXq %rax, %r11, %rcx
adcxq %r11, %r10
MULXq %rdi, %rdx, %r11
adcxq %rdx, %rcx
movq %rsi, %rdx
MULXq %rax, %r12, %rsi
adoxq %r12, %rcx
adcxq %rsi, %r11
MULXq %rdi, %r12, %rsi
adoxq %r12, %r11
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rdi, %r14, %rax
adcxq %r14, %rsi
adoxq %r8, %rsi
adcxq %r8, %rax
adoxq %r8, %rax
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %rbx, %rbx
adoxq %r9, %rbx
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %r11, %r11
adoxq %r15, %r11
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r8, %rdi
adoxq %r8, %rdi
movq $38, %rdx
MULXq %r11, %r11, %r9
adoxq %r11, %rbp
adcxq %r9, %rbx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbx
adcxq %rsi, %r10
MULXq %rax, %rsi, %rax
adoxq %rsi, %r10
adcxq %rax, %rcx
MULXq %rdi, %rdx, %rax
adoxq %rdx, %rcx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %r8, %rbx
adcq %r8, %r10
adcq %r8, %rcx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rbp
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$6
xorq %r9, %r9
movq 152(%rsp), %rdx
MULXq %rbp, %rdi, %rax
MULXq %rbx, %r8, %rsi
adcxq %r8, %rax
MULXq %r10, %r11, %r8
adcxq %r11, %rsi
MULXq %rcx, %rdx, %r11
adcxq %rdx, %r8
adcxq %r9, %r11
movq 160(%rsp), %rdx
MULXq %rbp, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rsi
MULXq %rbx, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %r8
MULXq %r10, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r11
MULXq %rcx, %rdx, %r12
adoxq %rdx, %r11
adcxq %r9, %r12
adoxq %r9, %r12
movq 168(%rsp), %rdx
MULXq %rbp, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %r8
MULXq %rbx, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r11
MULXq %r10, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %r9, %r13
adoxq %r9, %r13
movq 176(%rsp), %rdx
MULXq %rbp, %r14, %rbp
adoxq %r14, %r8
adcxq %rbp, %r11
MULXq %rbx, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r12
MULXq %r10, %rbx, %r10
adoxq %rbx, %r12
adcxq %r10, %r13
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r13
adcxq %r9, %rcx
adoxq %r9, %rcx
movq $38, %rdx
MULXq %r11, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rax
MULXq %r12, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rsi
MULXq %r13, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %r8
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r9, %rcx
adoxq %r9, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rdi
adcq %r9, %rax
adcq %r9, %rsi
adcq %r9, %r8
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rdi
movl $5, %ecx
Ljade_scalarmult_curve25519_amd64_mulx_base$5:
movl %ecx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rax, %r9, %rcx
MULXq %rsi, %rbp, %r10
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rsi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %r8, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %r8, %r14, %rsi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rsi
adoxq %r11, %rsi
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %rcx
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rcx
adcxq %rax, %r10
MULXq %r8, %rdx, %rax
adoxq %rdx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %rcx
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rax, %rsi
MULXq %rcx, %rbp, %r8
adcxq %rbp, %rsi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %r8
movq %r9, %rdx
MULXq %rcx, %r12, %r9
adoxq %r12, %r8
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %r10, %r14, %rcx
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rsi
MULXq %rcx, %r9, %rcx
adoxq %r9, %rsi
adcxq %rcx, %r8
MULXq %r10, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %r8
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %ecx
decl %ecx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$5
xorq %rcx, %rcx
movq 120(%rsp), %rdx
MULXq %rdi, %rbx, %r9
MULXq %rax, %r11, %r10
adcxq %r11, %r9
MULXq %rsi, %rbp, %r11
adcxq %rbp, %r10
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r11
adcxq %rcx, %rbp
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %r8, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r11
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r8, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r11
adcxq %rdi, %rbp
MULXq %rax, %rdi, %rax
adoxq %rdi, %rbp
adcxq %rax, %r12
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %r8, %rdx, %rax
adoxq %rdx, %r13
adcxq %rcx, %rax
adoxq %rcx, %rax
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %rbx
adcxq %rsi, %r9
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r9
adcxq %rsi, %r10
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r11
MULXq %rax, %rdx, %rax
adoxq %rdx, %r11
adcxq %rcx, %rax
adoxq %rcx, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %rcx, %r9
adcq %rcx, %r10
adcq %rcx, %r11
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rbx
movq %rbx, 120(%rsp)
movq %r9, 128(%rsp)
movq %r10, 136(%rsp)
movq %r11, 144(%rsp)
movl $25, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$4:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %rbx, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r9, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r10, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r11, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r11, %r14, %r10
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r11
adoxq %rdi, %r11
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r9, %rdx
adoxq %r9, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r8
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %rbx, %r8
MULXq %rcx, %r9, %r10
MULXq %rax, %rbp, %r11
adcxq %rbp, %r10
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %r8, %r9
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %r8
adoxq %rbp, %rbx
adcxq %r8, %r9
MULXq %rcx, %r8, %rcx
adoxq %r8, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r11
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r11
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %rdi, %r9
adcq %rdi, %r10
adcq %rdi, %r11
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rbx
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$4
xorq %r8, %r8
movq 120(%rsp), %rdx
MULXq %rbx, %rdi, %rsi
MULXq %r9, %rax, %rcx
adcxq %rax, %rsi
MULXq %r10, %rbp, %rax
adcxq %rbp, %rcx
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rax
adcxq %r8, %rbp
movq 128(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rcx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 136(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rax
MULXq %r9, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rbp
MULXq %r10, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 144(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rax
adcxq %rbx, %rbp
MULXq %r9, %rbx, %r9
adoxq %rbx, %rbp
adcxq %r9, %r12
MULXq %r10, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %r11, %rdx, %r9
adoxq %rdx, %r13
adcxq %r8, %r9
adoxq %r8, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %rsi
MULXq %r12, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r13, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rax
MULXq %r9, %r9, %rdx
adoxq %r9, %rax
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rax
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rdi
movq %rdi, 152(%rsp)
movq %rsi, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rax, 176(%rsp)
movl $50, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$3:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rsi, %r9, %r8
MULXq %rcx, %rbp, %r10
adcxq %rbp, %r8
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rax, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rax, %r14, %rcx
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %r8
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rsi, %rcx
MULXq %r8, %rbp, %rax
adcxq %rbp, %rcx
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rax
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rax
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rcx
MULXq %r8, %r9, %r8
adoxq %r9, %rcx
adcxq %r8, %rax
MULXq %r10, %r8, %rdx
adoxq %r8, %rax
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rax
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$3
xorq %rbx, %rbx
movq 152(%rsp), %rdx
MULXq %rdi, %r9, %r8
MULXq %rsi, %r11, %r10
adcxq %r11, %r8
MULXq %rcx, %rbp, %r11
adcxq %rbp, %r10
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r11
adcxq %rbx, %rbp
movq 160(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r10
MULXq %rsi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r11
MULXq %rcx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbp
MULXq %rax, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 168(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r11
MULXq %rsi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rax, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 176(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r11
adcxq %rdi, %rbp
MULXq %rsi, %rdi, %rsi
adoxq %rdi, %rbp
adcxq %rsi, %r12
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %rax, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r8
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %rbx, %r8
adcq %rbx, %r10
adcq %rbx, %r11
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r9
movl $25, %eax
Ljade_scalarmult_curve25519_amd64_mulx_base$2:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r9, %rdx
MULXq %rdx, %r9, %rbx
MULXq %r8, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rsi
movq %r8, %rdx
MULXq %r10, %r12, %r8
adoxq %r12, %rsi
adcxq %r8, %rbp
MULXq %r11, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r11, %r14, %r10
adcxq %r14, %r8
adoxq %rdi, %r8
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r11
adoxq %rdi, %r11
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %rcx
MULXq %r8, %rbx, %r8
adoxq %rbx, %rcx
adcxq %r8, %rax
MULXq %r10, %r10, %r8
adoxq %r10, %rax
adcxq %r8, %rsi
MULXq %r11, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r9
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r9
xorq %rdi, %rdi
movq %r9, %rdx
MULXq %rdx, %r9, %rbx
MULXq %rcx, %r8, %r10
MULXq %rax, %rbp, %r11
adcxq %rbp, %r10
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %r8
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r11
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r11
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %rdi, %r8
adcq %rdi, %r10
adcq %rdi, %r11
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r9
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx_base$2
xorq %rdi, %rdi
movq 120(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r8, %rax, %rbx
adcxq %rax, %rcx
MULXq %r10, %rbp, %rax
adcxq %rbp, %rbx
MULXq %r11, %rdx, %rbp
adcxq %rdx, %rax
adcxq %rdi, %rbp
movq 128(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbx
MULXq %r8, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rdi, %r12
adoxq %rdi, %r12
movq 136(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rax
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rbp
MULXq %r10, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %rdi, %r13
adoxq %rdi, %r13
movq 144(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %rax
adcxq %r9, %rbp
MULXq %r8, %r9, %r8
adoxq %r9, %rbp
adcxq %r8, %r12
MULXq %r10, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r11, %rdx, %r8
adoxq %rdx, %r13
adcxq %rdi, %r8
adoxq %rdi, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r12, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rbx
MULXq %r13, %r10, %r9
adoxq %r10, %rbx
adcxq %r9, %rax
MULXq %r8, %r8, %rdx
adoxq %r8, %rax
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rdi, %rcx
adcq %rdi, %rbx
adcq %rdi, %rax
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rsi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx_base$1:
movl %edx, 344(%rsp)
xorq %r10, %r10
movq %rsi, %rdx
MULXq %rdx, %rsi, %r11
MULXq %rcx, %r8, %rdi
MULXq %rbx, %rbp, %r9
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r9
movq %rcx, %rdx
MULXq %rbx, %r12, %rcx
adoxq %r12, %r9
adcxq %rcx, %rbp
MULXq %rax, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rbx, %rdx
MULXq %rax, %r14, %rbx
adcxq %r14, %rcx
adoxq %r10, %rcx
adcxq %r10, %rbx
adoxq %r10, %rbx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r8, %r8
adoxq %r11, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rbx, %rbx
adoxq %rdx, %rbx
adcxq %r10, %rax
adoxq %r10, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %rsi
adcxq %r11, %r8
MULXq %rcx, %r11, %rcx
adoxq %r11, %r8
adcxq %rcx, %rdi
MULXq %rbx, %r11, %rcx
adoxq %r11, %rdi
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r10, %r8
adcq %r10, %rdi
adcq %r10, %r9
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rsi
xorq %r10, %r10
movq %rsi, %rdx
MULXq %rdx, %rsi, %r11
MULXq %r8, %rcx, %rbx
MULXq %rdi, %rbp, %rax
adcxq %rbp, %rbx
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rdi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %r9, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %r9, %r14, %rdi
adcxq %r14, %r8
adoxq %r10, %r8
adcxq %r10, %rdi
adoxq %r10, %rdi
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rcx, %rcx
adoxq %r11, %rcx
adcxq %rbx, %rbx
adoxq %r13, %rbx
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r10, %r9
adoxq %r10, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %r11
adoxq %rbp, %rsi
adcxq %r11, %rcx
MULXq %r8, %r11, %r8
adoxq %r11, %rcx
adcxq %r8, %rbx
MULXq %rdi, %r8, %rdi
adoxq %r8, %rbx
adcxq %rdi, %rax
MULXq %r9, %rdi, %rdx
adoxq %rdi, %rax
adcxq %r10, %rdx
adoxq %r10, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %r10, %rcx
adcq %r10, %rbx
adcq %r10, %rax
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rsi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx_base$1
xorq %r8, %r8
movq %rsi, %rdx
MULXq %rdx, %rsi, %r9
MULXq %rcx, %r10, %rdi
MULXq %rbx, %rbp, %r11
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r11
movq %rcx, %rdx
MULXq %rbx, %r12, %rcx
adoxq %r12, %r11
adcxq %rcx, %rbp
MULXq %rax, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rbx, %rdx
MULXq %rax, %r14, %rbx
adcxq %r14, %rcx
adoxq %r8, %rcx
adcxq %r8, %rbx
adoxq %r8, %rbx
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r10, %r10
adoxq %r9, %r10
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r11, %r11
adoxq %r12, %r11
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rbx, %rbx
adoxq %rdx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %r9
adoxq %rbp, %rsi
adcxq %r9, %r10
MULXq %rcx, %r9, %rcx
adoxq %r9, %r10
adcxq %rcx, %rdi
MULXq %rbx, %r9, %rcx
adoxq %r9, %rdi
adcxq %rcx, %r11
MULXq %rax, %rcx, %rax
adoxq %rcx, %r11
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r8, %r10
adcq %r8, %rdi
adcq %r8, %r11
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rsi
xorq %rbx, %rbx
movq 88(%rsp), %rdx
MULXq %rsi, %rcx, %rax
MULXq %r10, %r9, %r8
adcxq %r9, %rax
MULXq %rdi, %rbp, %r9
adcxq %rbp, %r8
MULXq %r11, %rdx, %rbp
adcxq %rdx, %r9
adcxq %rbx, %rbp
movq 96(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %r8
MULXq %r10, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rdi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %r11, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 104(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r9
MULXq %r10, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r11, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 112(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %r9
adcxq %rsi, %rbp
MULXq %r10, %r10, %rsi
adoxq %r10, %rbp
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %r13
MULXq %r11, %rdx, %rsi
adoxq %rdx, %r13
adcxq %rbx, %rsi
adoxq %rbx, %rsi
movq $38, %rdx
MULXq %rbp, %r10, %rdi
adoxq %r10, %rcx
adcxq %rdi, %rax
MULXq %r12, %r10, %rdi
adoxq %r10, %rax
adcxq %rdi, %r8
MULXq %r13, %r10, %rdi
adoxq %r10, %r8
adcxq %rdi, %r9
MULXq %rsi, %rsi, %rdx
adoxq %rsi, %r9
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rcx
adcq %rbx, %rax
adcq %rbx, %r8
adcq %rbx, %r9
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rcx
xorq %rsi, %rsi
movq 56(%rsp), %rdx
MULXq %rcx, %r10, %rdi
MULXq %rax, %rbx, %r11
adcxq %rbx, %rdi
MULXq %r8, %rbp, %rbx
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %rsi, %rbp
movq 64(%rsp), %rdx
MULXq %rcx, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r11
MULXq %rax, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %r8, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rsi, %r12
adoxq %rsi, %r12
movq 72(%rsp), %rdx
MULXq %rcx, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rax, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %r8, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rsi, %r13
adoxq %rsi, %r13
movq 80(%rsp), %rdx
MULXq %rcx, %r14, %rcx
adoxq %r14, %rbx
adcxq %rcx, %rbp
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbp
adcxq %rax, %r12
MULXq %r8, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %r9, %rcx, %rax
adoxq %rcx, %r13
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %r8, %rcx
adoxq %r8, %r10
adcxq %rcx, %rdi
MULXq %r12, %r8, %rcx
adoxq %r8, %rdi
adcxq %rcx, %r11
MULXq %r13, %r8, %rcx
adoxq %r8, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %rsi, %rdi
adcq %rsi, %r11
adcq %rsi, %rbx
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %r10
leaq (%rbx,%rbx), %rax
sarq $63, %rbx
shrq $1, %rax
andq $19, %rbx
addq $19, %rbx
addq %rbx, %r10
adcq $0, %rdi
adcq $0, %r11
adcq $0, %rax
leaq (%rax,%rax), %rcx
sarq $63, %rax
shrq $1, %rcx
notq %rax
andq $19, %rax
subq %rax, %r10
sbbq $0, %rdi
sbbq $0, %r11
sbbq $0, %rcx
movq (%rsp), %rax
movq %r10, (%rax)
movq %rdi, 8(%rax)
movq %r11, 16(%rax)
movq %rcx, 24(%rax)
xorq %rax, %rax
movq 352(%rsp), %rbx
movq 360(%rsp), %rbp
movq 368(%rsp), %r12
movq 376(%rsp), %r13
movq 384(%rsp), %r14
movq 392(%rsp), %r15
movq 400(%rsp), %rsp
ret
_jade_scalarmult_curve25519_amd64_mulx:
jade_scalarmult_curve25519_amd64_mulx:
movq %rsp, %rax
leaq -408(%rsp), %rsp
andq $-8, %rsp
movq %rax, 400(%rsp)
movq %rbx, 352(%rsp)
movq %rbp, 360(%rsp)
movq %r12, 368(%rsp)
movq %r13, 376(%rsp)
movq %r14, 384(%rsp)
movq %r15, 392(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 24(%rsp)
movq 8(%rsi), %rax
movq %rax, 32(%rsp)
movq 16(%rsi), %rax
movq %rax, 40(%rsp)
movq 24(%rsi), %rax
movq %rax, 48(%rsp)
andb $-8, 24(%rsp)
andb $127, 55(%rsp)
orb $64, 55(%rsp)
movq (%rdx), %rcx
movq 8(%rdx), %r8
movq 16(%rdx), %r10
movq 24(%rdx), %rdx
movq $9223372036854775807, %rax
andq %rax, %rdx
xorq %r11, %r11
movq $1, 56(%rsp)
movq $0, %rdi
movq %rcx, 88(%rsp)
movq %r8, 96(%rsp)
movq %r10, 104(%rsp)
movq %rdx, 112(%rsp)
movq $1, 120(%rsp)
movq %r11, 64(%rsp)
movq %r11, %r9
movq %r11, 128(%rsp)
movq %r11, 72(%rsp)
movq %r11, %rax
movq %r11, 136(%rsp)
movq %r11, 80(%rsp)
movq %r11, %rsi
movq %r11, 144(%rsp)
movq %rcx, 152(%rsp)
movq %r8, 160(%rsp)
movq %r10, 168(%rsp)
movq %rdx, 176(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_mulx$9:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movzbq 24(%rsp,%rdx), %rdx
andq $7, %rcx
shrq %cl, %rdx
andq $1, %rdx
movq 8(%rsp), %r8
xorq %rdx, %r8
xorq %rcx, %rcx
subq %r8, %rcx
movq 120(%rsp), %r8
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq %rdi, %rbp
movq %r9, %r12
movq %rax, %r13
movq %rsi, %r14
xorq %r8, %rbp
xorq %r10, %r12
xorq %r11, %r13
xorq %rbx, %r14
andq %rcx, %rbp
andq %rcx, %r12
andq %rcx, %r13
andq %rcx, %r14
xorq %rbp, %rdi
xorq %rbp, %r8
movq %r8, 120(%rsp)
xorq %r12, %r9
xorq %r12, %r10
movq %r10, 128(%rsp)
xorq %r13, %rax
xorq %r13, %r11
movq %r11, 136(%rsp)
xorq %r14, %rsi
xorq %r14, %rbx
movq %rbx, 144(%rsp)
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r8
movq 112(%rsp), %r10
movq 56(%rsp), %rbp
movq %r11, %r12
xorq %rbp, %r12
andq %rcx, %r12
xorq %r12, %rbp
xorq %r12, %r11
movq %rbp, 56(%rsp)
movq %r11, 88(%rsp)
movq 64(%rsp), %r11
movq %rbx, %rbp
xorq %r11, %rbp
andq %rcx, %rbp
xorq %rbp, %r11
xorq %rbp, %rbx
movq %r11, 64(%rsp)
movq %rbx, 96(%rsp)
movq 72(%rsp), %r11
movq %r8, %rbx
xorq %r11, %rbx
andq %rcx, %rbx
xorq %rbx, %r11
xorq %rbx, %r8
movq %r11, 72(%rsp)
movq %r8, 104(%rsp)
movq 80(%rsp), %r8
movq %r10, %r11
xorq %r8, %r11
andq %rcx, %r11
xorq %r11, %r8
xorq %r11, %r10
movq %r8, 80(%rsp)
movq %r10, 112(%rsp)
movq %rdx, 8(%rsp)
xorq %rcx, %rcx
movq 56(%rsp), %rdx
movq 64(%rsp), %r8
movq 72(%rsp), %r10
movq 80(%rsp), %r11
subq %rdi, %rdx
sbbq %r9, %r8
sbbq %rax, %r10
sbbq %rsi, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
sbbq $0, %r8
sbbq $0, %r10
sbbq $0, %r11
sbbq %rcx, %rcx
andq $38, %rcx
subq %rcx, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r10, 200(%rsp)
movq %r11, 208(%rsp)
xorq %rcx, %rcx
addq 56(%rsp), %rdi
adcq 64(%rsp), %r9
adcq 72(%rsp), %rax
adcq 80(%rsp), %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
adcq $0, %r9
adcq $0, %rax
adcq $0, %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
movq %rdi, 216(%rsp)
movq %r9, 224(%rsp)
movq %rax, 232(%rsp)
movq %rsi, 240(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
subq 120(%rsp), %rax
sbbq 128(%rsp), %rcx
sbbq 136(%rsp), %rdx
sbbq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
sbbq $0, %rcx
sbbq $0, %rdx
sbbq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
subq %rdi, %rax
movq %rax, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdx, 264(%rsp)
movq %rsi, 272(%rsp)
movq 88(%rsp), %rax
movq 96(%rsp), %rcx
movq 104(%rsp), %rdx
movq 112(%rsp), %rsi
xorq %rdi, %rdi
addq 120(%rsp), %rax
adcq 128(%rsp), %rcx
adcq 136(%rsp), %rdx
adcq 144(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdx, 296(%rsp)
movq %rsi, 304(%rsp)
movq 248(%rsp), %r9
movq 256(%rsp), %r10
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
xorq %rax, %rax
movq 216(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 224(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 232(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 240(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %rdi, 264(%rsp)
movq %r8, 272(%rsp)
movq 184(%rsp), %r9
movq 192(%rsp), %r10
movq 200(%rsp), %r11
movq 208(%rsp), %rbx
xorq %rax, %rax
movq 280(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 288(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 296(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 304(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %rcx, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r8, 304(%rsp)
movq 216(%rsp), %rdx
movq 224(%rsp), %r11
movq 232(%rsp), %r13
movq 240(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 216(%rsp)
movq %r8, 224(%rsp)
movq %rdi, 232(%rsp)
movq %r9, 240(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %r8, %r8
MULXq %rdx, %rax, %r9
MULXq %r11, %rsi, %rcx
MULXq %r13, %r10, %rdi
adcxq %r10, %rcx
MULXq %rbx, %rdx, %r10
adcxq %rdx, %rdi
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %rdi
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %r8, %r11
adcxq %r8, %r13
adoxq %r8, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %rsi, %rsi
adoxq %r9, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rdi, %rdi
adoxq %rbp, %rdi
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %r8, %rbx
adoxq %r8, %rbx
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r11, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rcx
MULXq %r13, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %rbx, %r9, %rdx
adoxq %r9, %rdi
adcxq %r8, %rdx
adoxq %r8, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rax
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
addq 280(%rsp), %rdx
adcq 288(%rsp), %r8
adcq 296(%rsp), %r9
adcq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
adcq $0, %r8
adcq $0, %r9
adcq $0, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdx
movq %rdx, 184(%rsp)
movq %r8, 192(%rsp)
movq %r9, 200(%rsp)
movq %r10, 208(%rsp)
movq 248(%rsp), %rdx
movq 256(%rsp), %r8
movq 264(%rsp), %r9
movq 272(%rsp), %r10
xorq %r11, %r11
subq 280(%rsp), %rdx
sbbq 288(%rsp), %r8
sbbq 296(%rsp), %r9
sbbq 304(%rsp), %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
sbbq $0, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq %r11, %r11
andq $38, %r11
subq %r11, %rdx
movq %rdx, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
xorq %rdx, %rdx
movq 216(%rsp), %r8
movq 224(%rsp), %r9
movq 232(%rsp), %r10
movq 240(%rsp), %r11
subq %rax, %r8
sbbq %rsi, %r9
sbbq %rcx, %r10
sbbq %rdi, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
sbbq $0, %r9
sbbq $0, %r10
sbbq $0, %r11
sbbq %rdx, %rdx
andq $38, %rdx
subq %rdx, %r8
movq %r8, 248(%rsp)
movq %r9, 256(%rsp)
movq %r10, 264(%rsp)
movq %r11, 272(%rsp)
xorq %r8, %r8
movq 216(%rsp), %rdx
MULXq %rax, %r10, %r9
MULXq %rsi, %rbx, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbp, %rbx
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %r8, %rbp
movq 224(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r11
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rcx, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r8, %r12
adoxq %r8, %r12
movq 232(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rsi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r8, %r13
adoxq %r8, %r13
movq 240(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %rbx
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r8, %rax
adoxq %r8, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r11
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %rbx
MULXq %rax, %rcx, %rax
adoxq %rcx, %rbx
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r10
adcq %r8, %r9
adcq %r8, %r11
adcq %r8, %rbx
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r10
movq %r10, 56(%rsp)
movq %r9, 64(%rsp)
movq %r11, 72(%rsp)
movq %rbx, 80(%rsp)
movq 280(%rsp), %rdx
movq 288(%rsp), %r11
movq 296(%rsp), %r13
movq 304(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq $121665, %rdx
MULXq 248(%rsp), %rcx, %rax
MULXq 256(%rsp), %rdi, %rsi
addq %rdi, %rax
MULXq 264(%rsp), %r8, %rdi
adcq %r8, %rsi
MULXq 272(%rsp), %r9, %r8
adcq %r9, %rdi
adcq $0, %r8
imulq $38, %r8, %r8
addq %r8, %rcx
adcq $0, %rax
adcq $0, %rsi
adcq $0, %rdi
sbbq %rdx, %rdx
andq $38, %rdx
addq %rdx, %rcx
movq %rcx, 312(%rsp)
movq %rax, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq 184(%rsp), %rdx
movq 192(%rsp), %r11
movq 200(%rsp), %r13
movq 208(%rsp), %rbx
xorq %rax, %rax
MULXq %rdx, %rsi, %rcx
MULXq %r11, %r8, %rdi
MULXq %r13, %r10, %r9
adcxq %r10, %rdi
MULXq %rbx, %rdx, %r10
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r13, %rbp, %r11
adoxq %rbp, %r9
adcxq %r11, %r10
MULXq %rbx, %rbp, %r11
adoxq %rbp, %r10
MULXq %rdx, %r12, %rbp
movq %r13, %rdx
MULXq %rbx, %r14, %r13
adcxq %r14, %r11
adoxq %rax, %r11
adcxq %rax, %r13
adoxq %rax, %r13
MULXq %rdx, %r15, %r14
movq %rbx, %rdx
MULXq %rdx, %rdx, %rbx
adcxq %r8, %r8
adoxq %rcx, %r8
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %r9, %r9
adoxq %rbp, %r9
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r13, %r13
adoxq %rdx, %r13
adcxq %rax, %rbx
adoxq %rax, %rbx
movq $38, %rdx
MULXq %r10, %r10, %rcx
adoxq %r10, %rsi
adcxq %rcx, %r8
MULXq %r11, %r10, %rcx
adoxq %r10, %r8
adcxq %rcx, %rdi
MULXq %r13, %r10, %rcx
adoxq %r10, %rdi
adcxq %rcx, %r9
MULXq %rbx, %rdx, %rcx
adoxq %rdx, %r9
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rsi
adcq %rax, %r8
adcq %rax, %rdi
adcq %rax, %r9
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %r9, 112(%rsp)
movq 216(%rsp), %rax
movq 224(%rsp), %rcx
movq 232(%rsp), %rdx
movq 240(%rsp), %rsi
xorq %rdi, %rdi
addq 312(%rsp), %rax
adcq 320(%rsp), %rcx
adcq 328(%rsp), %rdx
adcq 336(%rsp), %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
adcq $0, %rcx
adcq $0, %rdx
adcq $0, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rax
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq 280(%rsp), %r9
movq 288(%rsp), %r10
movq 296(%rsp), %r11
movq 304(%rsp), %rbx
xorq %rax, %rax
movq 152(%rsp), %rdx
MULXq %r9, %rsi, %rcx
MULXq %r10, %r8, %rdi
adcxq %r8, %rcx
MULXq %r11, %rbp, %r8
adcxq %rbp, %rdi
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rax, %rbp
movq 160(%rsp), %rdx
MULXq %r9, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r8
MULXq %r11, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 168(%rsp), %rdx
MULXq %r9, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r8
MULXq %r10, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 176(%rsp), %rdx
MULXq %r9, %r14, %r9
adoxq %r14, %r8
adcxq %r9, %rbp
MULXq %r10, %r10, %r9
adoxq %r10, %rbp
adcxq %r9, %r12
MULXq %r11, %r10, %r9
adoxq %r10, %r12
adcxq %r9, %r13
MULXq %rbx, %rdx, %r9
adoxq %rdx, %r13
adcxq %rax, %r9
adoxq %rax, %r9
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r12, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %r13, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r8
MULXq %r9, %r9, %rdx
adoxq %r9, %r8
adcxq %rax, %rdx
adoxq %rax, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rax, %rcx
adcq %rax, %rdi
adcq %rax, %r8
sbbq %rax, %rax
andq $38, %rax
addq %rax, %rsi
movq %rsi, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 312(%rsp), %r8
movq 320(%rsp), %r10
movq 328(%rsp), %r11
movq 336(%rsp), %rbx
xorq %rcx, %rcx
movq 248(%rsp), %rdx
MULXq %r8, %rdi, %r9
MULXq %r10, %rsi, %rax
adcxq %rsi, %r9
MULXq %r11, %rbp, %rsi
adcxq %rbp, %rax
MULXq %rbx, %rdx, %rbp
adcxq %rdx, %rsi
adcxq %rcx, %rbp
movq 256(%rsp), %rdx
MULXq %r8, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rax
MULXq %r10, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rsi
MULXq %r11, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rbp
MULXq %rbx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rcx, %r12
adoxq %rcx, %r12
movq 264(%rsp), %rdx
MULXq %r8, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rsi
MULXq %r10, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rbx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 272(%rsp), %rdx
MULXq %r8, %r14, %r8
adoxq %r14, %rsi
adcxq %r8, %rbp
MULXq %r10, %r10, %r8
adoxq %r10, %rbp
adcxq %r8, %r12
MULXq %r11, %r10, %r8
adoxq %r10, %r12
adcxq %r8, %r13
MULXq %rbx, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rbp, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r9
MULXq %r12, %r11, %r10
adoxq %r11, %r9
adcxq %r10, %rax
MULXq %r13, %r11, %r10
adoxq %r11, %rax
adcxq %r10, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %rcx, %r9
adcq %rcx, %rax
adcq %rcx, %rsi
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_mulx$9
movq %rdi, 120(%rsp)
movq %r9, 128(%rsp)
movq %rax, 136(%rsp)
movq %rsi, 144(%rsp)
xorq %r10, %r10
movq %rdi, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %r8, %rdi
MULXq %rax, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %rax, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %rsi, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %r9
adoxq %r10, %r9
adcxq %r10, %rax
adoxq %r10, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r10, %rsi
adoxq %r10, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r8
MULXq %r9, %rbx, %r9
adoxq %rbx, %r8
adcxq %r9, %rdi
MULXq %rax, %r9, %rax
adoxq %r9, %rdi
adcxq %rax, %rcx
MULXq %rsi, %rdx, %rax
adoxq %rdx, %rcx
adcxq %r10, %rax
adoxq %r10, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %r10, %r8
adcq %r10, %rdi
adcq %r10, %rcx
sbbq %r10, %r10
andq $38, %r10
addq %r10, %r11
movq %r11, 88(%rsp)
movq %r8, 96(%rsp)
movq %rdi, 104(%rsp)
movq %rcx, 112(%rsp)
xorq %rsi, %rsi
movq %r11, %rdx
MULXq %rdx, %r9, %rbx
MULXq %r8, %r11, %r10
MULXq %rdi, %rbp, %rax
adcxq %rbp, %r10
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %rax
movq %r8, %rdx
MULXq %rdi, %r12, %r8
adoxq %r12, %rax
adcxq %r8, %rbp
MULXq %rcx, %r12, %r8
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rcx, %r14, %rdi
adcxq %r14, %r8
adoxq %rsi, %r8
adcxq %rsi, %rdi
adoxq %rsi, %rdi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %rax, %rax
adoxq %r12, %rax
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r8, %r8
adoxq %r14, %r8
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %rsi, %rcx
adoxq %rsi, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r9
adcxq %rbx, %r11
MULXq %r8, %rbx, %r8
adoxq %rbx, %r11
adcxq %r8, %r10
MULXq %rdi, %r8, %rdi
adoxq %r8, %r10
adcxq %rdi, %rax
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rax
adcxq %rsi, %rcx
adoxq %rsi, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r9
adcq %rsi, %r11
adcq %rsi, %r10
adcq %rsi, %rax
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %r9
xorq %rcx, %rcx
movq %r9, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %r11, %r8, %rdi
MULXq %r10, %rbp, %r9
adcxq %rbp, %rdi
MULXq %rax, %rdx, %rbp
adcxq %rdx, %r9
movq %r11, %rdx
MULXq %r10, %r12, %r11
adoxq %r12, %r9
adcxq %r11, %rbp
MULXq %rax, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %rax, %r14, %r10
adcxq %r14, %r11
adoxq %rcx, %r11
adcxq %rcx, %r10
adoxq %rcx, %r10
MULXq %rdx, %r15, %r14
movq %rax, %rdx
MULXq %rdx, %rdx, %rax
adcxq %r8, %r8
adoxq %rbx, %r8
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %r9, %r9
adoxq %r12, %r9
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rcx, %rax
adoxq %rcx, %rax
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %r8
MULXq %r11, %rbx, %r11
adoxq %rbx, %r8
adcxq %r11, %rdi
MULXq %r10, %r11, %r10
adoxq %r11, %rdi
adcxq %r10, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %rcx, %rax
adoxq %rcx, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %rcx, %r8
adcq %rcx, %rdi
adcq %rcx, %r9
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rsi
xorq %r10, %r10
movq 120(%rsp), %rdx
MULXq %rsi, %rbx, %r11
MULXq %r8, %rcx, %rax
adcxq %rcx, %r11
MULXq %rdi, %rbp, %rcx
adcxq %rbp, %rax
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rcx
adcxq %r10, %rbp
movq 128(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rax
MULXq %r8, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rcx
MULXq %rdi, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r10, %r12
adoxq %r10, %r12
movq 136(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %rcx
MULXq %r8, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %r10, %r13
adoxq %r10, %r13
movq 144(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %rcx
adcxq %rsi, %rbp
MULXq %r8, %r8, %rsi
adoxq %r8, %rbp
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %r13
MULXq %r9, %rdx, %rsi
adoxq %rdx, %r13
adcxq %r10, %rsi
adoxq %r10, %rsi
movq $38, %rdx
MULXq %rbp, %r8, %rdi
adoxq %r8, %rbx
adcxq %rdi, %r11
MULXq %r12, %r8, %rdi
adoxq %r8, %r11
adcxq %rdi, %rax
MULXq %r13, %r8, %rdi
adoxq %r8, %rax
adcxq %rdi, %rcx
MULXq %rsi, %rsi, %rdx
adoxq %rsi, %rcx
adcxq %r10, %rdx
adoxq %r10, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbx
adcq %r10, %r11
adcq %r10, %rax
adcq %r10, %rcx
sbbq %r10, %r10
andq $38, %r10
addq %r10, %rbx
movq %rbx, 120(%rsp)
movq %r11, 128(%rsp)
movq %rax, 136(%rsp)
movq %rcx, 144(%rsp)
xorq %rsi, %rsi
movq 88(%rsp), %rdx
MULXq %rbx, %rdi, %r10
MULXq %r11, %r8, %r9
adcxq %r8, %r10
MULXq %rax, %rbp, %r8
adcxq %rbp, %r9
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r8
adcxq %rsi, %rbp
movq 96(%rsp), %rdx
MULXq %rbx, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r9
MULXq %r11, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r8
MULXq %rax, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbp
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rsi, %r12
adoxq %rsi, %r12
movq 104(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r8
MULXq %r11, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbp
MULXq %rax, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rsi, %r13
adoxq %rsi, %r13
movq 112(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %r8
adcxq %rbx, %rbp
MULXq %r11, %rbx, %r11
adoxq %rbx, %rbp
adcxq %r11, %r12
MULXq %rax, %r11, %rax
adoxq %r11, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %rsi, %rax
adoxq %rsi, %rax
movq $38, %rdx
MULXq %rbp, %r11, %rcx
adoxq %r11, %rdi
adcxq %rcx, %r10
MULXq %r12, %r11, %rcx
adoxq %r11, %r10
adcxq %rcx, %r9
MULXq %r13, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rsi, %rax
adoxq %rsi, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %rsi, %r10
adcq %rsi, %r9
adcq %rsi, %r8
sbbq %rsi, %rsi
andq $38, %rsi
addq %rsi, %rdi
movq %rdi, 88(%rsp)
movq %r10, 96(%rsp)
movq %r9, 104(%rsp)
movq %r8, 112(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r10, %rsi, %rcx
MULXq %r9, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rdi
movq %r10, %rdx
MULXq %r9, %r12, %r10
adoxq %r12, %rdi
adcxq %r10, %rbp
MULXq %r8, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r8, %r14, %r9
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r9
adoxq %r11, %r9
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %r11, %r8
adoxq %r11, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rsi
MULXq %r10, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %r9, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r8, %r8, %rdx
adoxq %r8, %rdi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rax, %rbx, %r10
MULXq %rsi, %r9, %r8
adcxq %r9, %r10
MULXq %rcx, %rbp, %r9
adcxq %rbp, %r8
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r9
adcxq %r11, %rbp
movq 128(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r8
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r9
MULXq %rcx, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %rdi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r9
MULXq %rsi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %rcx, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rdi, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r9
adcxq %rax, %rbp
MULXq %rsi, %rsi, %rax
adoxq %rsi, %rbp
adcxq %rax, %r12
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %rbx
adcxq %rcx, %r10
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r8
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbx
adcq %r11, %r10
adcq %r11, %r8
adcq %r11, %r9
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbx
movq %rbx, 120(%rsp)
movq %r10, 128(%rsp)
movq %r8, 136(%rsp)
movq %r9, 144(%rsp)
xorq %r11, %r11
movq %rbx, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r10, %rax, %rsi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rsi
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rcx
movq %r10, %rdx
MULXq %r8, %r12, %r10
adoxq %r12, %rcx
adcxq %r10, %rbp
MULXq %r9, %r12, %r10
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r9, %r14, %r8
adcxq %r14, %r10
adoxq %r11, %r10
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r9, %rdx
MULXq %rdx, %rdx, %r9
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r10, %r10
adoxq %r14, %r10
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r9
adoxq %r11, %r9
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r10, %rbx, %r10
adoxq %rbx, %rax
adcxq %r10, %rsi
MULXq %r8, %r10, %r8
adoxq %r10, %rsi
adcxq %r8, %rcx
MULXq %r9, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl $2, %edx
Ljade_scalarmult_curve25519_amd64_mulx$8:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %rax, %r9, %r8
MULXq %rsi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rsi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %rcx, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rsi, %rdx
MULXq %rcx, %r14, %rsi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rsi
adoxq %r11, %rsi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rsi, %rsi
adoxq %rdx, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %r8
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rdi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
xorq %r11, %r11
movq %rdi, %rdx
MULXq %rdx, %rdi, %rbx
MULXq %r9, %rax, %rsi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rsi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rsi, %rsi
adoxq %r13, %rsi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rdi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rsi
MULXq %r8, %r9, %r8
adoxq %r9, %rsi
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rdi
adcq %r11, %rax
adcq %r11, %rsi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rdi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$8
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %rdi, %r8, %r11
MULXq %rax, %r10, %r9
adcxq %r10, %r11
MULXq %rsi, %rbp, %r10
adcxq %rbp, %r9
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %rdi, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %r9
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rsi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %rdi, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %r10
MULXq %rax, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rsi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %rdi, %r14, %rdi
adoxq %r14, %r10
adcxq %rdi, %rbp
MULXq %rax, %rdi, %rax
adoxq %rdi, %rbp
adcxq %rax, %r12
MULXq %rsi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r11
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %rbx, %r11
adcq %rbx, %r9
adcq %rbx, %r10
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r8
movq %r8, 120(%rsp)
movq %r11, 128(%rsp)
movq %r9, 136(%rsp)
movq %r10, 144(%rsp)
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx$7:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r11, %rcx, %rax
MULXq %r9, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r11, %rdx
MULXq %r9, %r12, %r11
adoxq %r12, %rsi
adcxq %r11, %rbp
MULXq %r10, %r12, %r11
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r9, %rdx
MULXq %r10, %r14, %r9
adcxq %r14, %r11
adoxq %rdi, %r11
adcxq %rdi, %r9
adoxq %rdi, %r9
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r11, %r11
adoxq %r14, %r11
adcxq %r9, %r9
adoxq %rdx, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rcx
MULXq %r11, %rbx, %r11
adoxq %rbx, %rcx
adcxq %r11, %rax
MULXq %r9, %r11, %r9
adoxq %r11, %rax
adcxq %r9, %rsi
MULXq %r10, %r9, %rdx
adoxq %r9, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r8
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
xorq %rdi, %rdi
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %rcx, %r11, %r9
MULXq %rax, %rbp, %r10
adcxq %rbp, %r9
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r11, %r11
adoxq %rbx, %r11
adcxq %r9, %r9
adoxq %r13, %r9
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %r11
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r11
adcxq %rcx, %r9
MULXq %rax, %rcx, %rax
adoxq %rcx, %r9
adcxq %rax, %r10
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r10
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %rdi, %r11
adcq %rdi, %r9
adcq %rdi, %r10
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r8
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$7
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %r8, %rax, %rcx
MULXq %r11, %rsi, %rdi
adcxq %rsi, %rcx
MULXq %r9, %rbp, %rsi
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %r8, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r11, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rsi
MULXq %r9, %r13, %r12
adoxq %r13, %rsi
adcxq %r12, %rbp
MULXq %r10, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %r8, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rsi
MULXq %r11, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rbp
MULXq %r9, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %r8, %r14, %r8
adoxq %r14, %rsi
adcxq %r8, %rbp
MULXq %r11, %r11, %r8
adoxq %r11, %rbp
adcxq %r8, %r12
MULXq %r9, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rbx, %r8
adoxq %rbx, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rcx
MULXq %r12, %r10, %r9
adoxq %r10, %rcx
adcxq %r9, %rdi
MULXq %r13, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %rbx, %rcx
adcq %rbx, %rdi
adcq %rbx, %rsi
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rax
movq %rax, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rdi, 168(%rsp)
movq %rsi, 176(%rsp)
movl $10, %edx
Ljade_scalarmult_curve25519_amd64_mulx$6:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rax, %rdx
MULXq %rdx, %rax, %rbx
MULXq %rcx, %r9, %r8
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rdi, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rsi, %r14, %rdi
adcxq %r14, %rcx
adoxq %r11, %rcx
adcxq %r11, %rdi
adoxq %r11, %rdi
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r11, %rsi
adoxq %r11, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %r9
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r9
adcxq %rcx, %r8
MULXq %rdi, %rdi, %rcx
adoxq %rdi, %r8
adcxq %rcx, %r10
MULXq %rsi, %rdx, %rcx
adoxq %rdx, %r10
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rax
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
xorq %r11, %r11
movq %rax, %rdx
MULXq %rdx, %rax, %rbx
MULXq %r9, %rcx, %rdi
MULXq %r8, %rbp, %rsi
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rdi
MULXq %r8, %r9, %r8
adoxq %r9, %rdi
adcxq %r8, %rsi
MULXq %r10, %r8, %rdx
adoxq %r8, %rsi
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rax
adcq %r11, %rcx
adcq %r11, %rdi
adcq %r11, %rsi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rax
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$6
xorq %rbx, %rbx
movq 152(%rsp), %rdx
MULXq %rax, %r11, %r9
MULXq %rcx, %r10, %r8
adcxq %r10, %r9
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
adcxq %rbx, %rbp
movq 160(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r8
MULXq %rcx, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r10
MULXq %rdi, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %rbp
MULXq %rsi, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 168(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %r10
MULXq %rcx, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %rsi, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 176(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r10
adcxq %rax, %rbp
MULXq %rcx, %rcx, %rax
adoxq %rcx, %rbp
adcxq %rax, %r12
MULXq %rdi, %rcx, %rax
adoxq %rcx, %r12
adcxq %rax, %r13
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r8
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r8
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %rbx, %r9
adcq %rbx, %r8
adcq %rbx, %r10
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %r11
movl $5, %eax
Ljade_scalarmult_curve25519_amd64_mulx$5:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %rcx, %rax
MULXq %r8, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r8
adoxq %rdi, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %rdi, %r10
adoxq %rdi, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r8, %r9, %r8
adoxq %r9, %rax
adcxq %r8, %rsi
MULXq %r10, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r11
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %r11, %rbx
MULXq %rcx, %r9, %r8
MULXq %rax, %rbp, %r10
adcxq %rbp, %r8
MULXq %rsi, %rdx, %rbp
adcxq %rdx, %r10
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r10
adcxq %rcx, %rbp
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %r9
MULXq %rcx, %rbx, %rcx
adoxq %rbx, %r9
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %rax, %r10
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r10
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %r11
adcq %rdi, %r9
adcq %rdi, %r8
adcq %rdi, %r10
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$5
xorq %rbx, %rbx
movq 120(%rsp), %rdx
MULXq %r11, %rsi, %rax
MULXq %r9, %rcx, %rdi
adcxq %rcx, %rax
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
adcxq %rbx, %rbp
movq 128(%rsp), %rdx
MULXq %r11, %r13, %r12
adoxq %r13, %rax
adcxq %r12, %rdi
MULXq %r9, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %rcx
MULXq %r8, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rbp
MULXq %r10, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 136(%rsp), %rdx
MULXq %r11, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %rcx
MULXq %r9, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rbp
MULXq %r8, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r10, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 144(%rsp), %rdx
MULXq %r11, %r14, %r11
adoxq %r14, %rcx
adcxq %r11, %rbp
MULXq %r9, %r11, %r9
adoxq %r11, %rbp
adcxq %r9, %r12
MULXq %r8, %r9, %r8
adoxq %r9, %r12
adcxq %r8, %r13
MULXq %r10, %rdx, %r8
adoxq %rdx, %r13
adcxq %rbx, %r8
adoxq %rbx, %r8
movq $38, %rdx
MULXq %rbp, %r10, %r9
adoxq %r10, %rsi
adcxq %r9, %rax
MULXq %r12, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rdi
MULXq %r13, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %rcx
MULXq %r8, %r8, %rdx
adoxq %r8, %rcx
adcxq %rbx, %rdx
adoxq %rbx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %rbx, %rax
adcq %rbx, %rdi
adcq %rbx, %rcx
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rsi
movq %rsi, 120(%rsp)
movq %rax, 128(%rsp)
movq %rdi, 136(%rsp)
movq %rcx, 144(%rsp)
movl $25, %edx
Ljade_scalarmult_curve25519_amd64_mulx$4:
movl %edx, 344(%rsp)
xorq %r11, %r11
movq %rsi, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %rax, %r9, %r8
MULXq %rdi, %rbp, %r10
adcxq %rbp, %r8
MULXq %rcx, %rdx, %rbp
adcxq %rdx, %r10
movq %rax, %rdx
MULXq %rdi, %r12, %rax
adoxq %r12, %r10
adcxq %rax, %rbp
MULXq %rcx, %r12, %rax
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rdi, %rdx
MULXq %rcx, %r14, %rdi
adcxq %r14, %rax
adoxq %r11, %rax
adcxq %r11, %rdi
adoxq %r11, %rdi
MULXq %rdx, %r15, %r14
movq %rcx, %rdx
MULXq %rdx, %rdx, %rcx
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %r8, %r8
adoxq %r13, %r8
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rax, %rax
adoxq %r14, %rax
adcxq %rdi, %rdi
adoxq %rdx, %rdi
adcxq %r11, %rcx
adoxq %r11, %rcx
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %r9
MULXq %rax, %rbx, %rax
adoxq %rbx, %r9
adcxq %rax, %r8
MULXq %rdi, %rdi, %rax
adoxq %rdi, %r8
adcxq %rax, %r10
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r10
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %r11, %r9
adcq %r11, %r8
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rsi
xorq %r11, %r11
movq %rsi, %rdx
MULXq %rdx, %rsi, %rbx
MULXq %r9, %rax, %rdi
MULXq %r8, %rbp, %rcx
adcxq %rbp, %rdi
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rcx
movq %r9, %rdx
MULXq %r8, %r12, %r9
adoxq %r12, %rcx
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r8, %rdx
MULXq %r10, %r14, %r8
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %r8
adoxq %r11, %r8
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rax, %rax
adoxq %rbx, %rax
adcxq %rdi, %rdi
adoxq %r13, %rdi
adcxq %rcx, %rcx
adoxq %r12, %rcx
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r8, %r8
adoxq %rdx, %r8
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rsi
adcxq %rbx, %rax
MULXq %r9, %rbx, %r9
adoxq %rbx, %rax
adcxq %r9, %rdi
MULXq %r8, %r9, %r8
adoxq %r9, %rdi
adcxq %r8, %rcx
MULXq %r10, %r8, %rdx
adoxq %r8, %rcx
adcxq %r11, %rdx
adoxq %r11, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rsi
adcq %r11, %rax
adcq %r11, %rdi
adcq %r11, %rcx
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rsi
movl 344(%rsp), %edx
decl %edx
jne Ljade_scalarmult_curve25519_amd64_mulx$4
xorq %r11, %r11
movq 120(%rsp), %rdx
MULXq %rsi, %rbp, %r9
MULXq %rax, %r8, %r10
adcxq %r8, %r9
MULXq %rdi, %rbx, %r8
adcxq %rbx, %r10
MULXq %rcx, %rdx, %rbx
adcxq %rdx, %r8
adcxq %r11, %rbx
movq 128(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %r10
MULXq %rax, %r13, %r12
adoxq %r13, %r10
adcxq %r12, %r8
MULXq %rdi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %rbx
MULXq %rcx, %rdx, %r12
adoxq %rdx, %rbx
adcxq %r11, %r12
adoxq %r11, %r12
movq 136(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %r8
MULXq %rax, %r14, %r13
adoxq %r14, %r8
adcxq %r13, %rbx
MULXq %rdi, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %r12
MULXq %rcx, %rdx, %r13
adoxq %rdx, %r12
adcxq %r11, %r13
adoxq %r11, %r13
movq 144(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %r8
adcxq %rsi, %rbx
MULXq %rax, %rsi, %rax
adoxq %rsi, %rbx
adcxq %rax, %r12
MULXq %rdi, %rsi, %rax
adoxq %rsi, %r12
adcxq %rax, %r13
MULXq %rcx, %rcx, %rax
adoxq %rcx, %r13
adcxq %r11, %rax
adoxq %r11, %rax
movq $38, %rdx
MULXq %rbx, %rsi, %rcx
adoxq %rsi, %rbp
adcxq %rcx, %r9
MULXq %r12, %rsi, %rcx
adoxq %rsi, %r9
adcxq %rcx, %r10
MULXq %r13, %rsi, %rcx
adoxq %rsi, %r10
adcxq %rcx, %r8
MULXq %rax, %rcx, %rax
adoxq %rcx, %r8
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %r11, %r9
adcq %r11, %r10
adcq %r11, %r8
sbbq %r11, %r11
andq $38, %r11
addq %r11, %rbp
movq %rbp, 152(%rsp)
movq %r9, 160(%rsp)
movq %r10, 168(%rsp)
movq %r8, 176(%rsp)
movl $50, %eax
Ljade_scalarmult_curve25519_amd64_mulx$3:
movl %eax, 344(%rsp)
xorq %rdi, %rdi
movq %rbp, %rdx
MULXq %rdx, %r11, %rbx
MULXq %r9, %rcx, %rax
MULXq %r10, %rbp, %rsi
adcxq %rbp, %rax
MULXq %r8, %rdx, %rbp
adcxq %rdx, %rsi
movq %r9, %rdx
MULXq %r10, %r12, %r9
adoxq %r12, %rsi
adcxq %r9, %rbp
MULXq %r8, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %r10, %rdx
MULXq %r8, %r14, %r10
adcxq %r14, %r9
adoxq %rdi, %r9
adcxq %rdi, %r10
adoxq %rdi, %r10
MULXq %rdx, %r15, %r14
movq %r8, %rdx
MULXq %rdx, %rdx, %r8
adcxq %rcx, %rcx
adoxq %rbx, %rcx
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %rsi, %rsi
adoxq %r12, %rsi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %r10, %r10
adoxq %rdx, %r10
adcxq %rdi, %r8
adoxq %rdi, %r8
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r11
adcxq %rbx, %rcx
MULXq %r9, %rbx, %r9
adoxq %rbx, %rcx
adcxq %r9, %rax
MULXq %r10, %r10, %r9
adoxq %r10, %rax
adcxq %r9, %rsi
MULXq %r8, %r8, %rdx
adoxq %r8, %rsi
adcxq %rdi, %rdx
adoxq %rdi, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %r11
adcq %rdi, %rcx
adcq %rdi, %rax
adcq %rdi, %rsi
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %r11
xorq %rdi, %rdi
movq %r11, %rdx
MULXq %rdx, %rbp, %r11
MULXq %rcx, %r9, %r10
MULXq %rax, %rbx, %r8
adcxq %rbx, %r10
MULXq %rsi, %rdx, %rbx
adcxq %rdx, %r8
movq %rcx, %rdx
MULXq %rax, %r12, %rcx
adoxq %r12, %r8
adcxq %rcx, %rbx
MULXq %rsi, %r12, %rcx
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %rsi, %r14, %rax
adcxq %r14, %rcx
adoxq %rdi, %rcx
adcxq %rdi, %rax
adoxq %rdi, %rax
MULXq %rdx, %r15, %r14
movq %rsi, %rdx
MULXq %rdx, %rdx, %rsi
adcxq %r9, %r9
adoxq %r11, %r9
adcxq %r10, %r10
adoxq %r13, %r10
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rcx, %rcx
adoxq %r14, %rcx
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %rdi, %rsi
adoxq %rdi, %rsi
movq $38, %rdx
MULXq %rbx, %rbx, %r11
adoxq %rbx, %rbp
adcxq %r11, %r9
MULXq %rcx, %r11, %rcx
adoxq %r11, %r9
adcxq %rcx, %r10
MULXq %rax, %rcx, %rax
adoxq %rcx, %r10
adcxq %rax, %r8
MULXq %rsi, %rcx, %rax
adoxq %rcx, %r8
adcxq %rdi, %rax
adoxq %rdi, %rax
imulq $38, %rax, %rax
addq %rax, %rbp
adcq %rdi, %r9
adcq %rdi, %r10
adcq %rdi, %r8
sbbq %rdi, %rdi
andq $38, %rdi
addq %rdi, %rbp
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$3
xorq %rcx, %rcx
movq 152(%rsp), %rdx
MULXq %rbp, %rbx, %r12
MULXq %r9, %rsi, %rax
adcxq %rsi, %r12
MULXq %r10, %rsi, %r11
adcxq %rsi, %rax
MULXq %r8, %rdx, %rsi
adcxq %rdx, %r11
adcxq %rcx, %rsi
movq 160(%rsp), %rdx
MULXq %rbp, %r13, %rdi
adoxq %r13, %r12
adcxq %rdi, %rax
MULXq %r9, %r13, %rdi
adoxq %r13, %rax
adcxq %rdi, %r11
MULXq %r10, %r13, %rdi
adoxq %r13, %r11
adcxq %rdi, %rsi
MULXq %r8, %rdx, %rdi
adoxq %rdx, %rsi
adcxq %rcx, %rdi
adoxq %rcx, %rdi
movq 168(%rsp), %rdx
MULXq %rbp, %r14, %r13
adoxq %r14, %rax
adcxq %r13, %r11
MULXq %r9, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rsi
MULXq %r10, %r14, %r13
adoxq %r14, %rsi
adcxq %r13, %rdi
MULXq %r8, %rdx, %r13
adoxq %rdx, %rdi
adcxq %rcx, %r13
adoxq %rcx, %r13
movq 176(%rsp), %rdx
MULXq %rbp, %r14, %rbp
adoxq %r14, %r11
adcxq %rbp, %rsi
MULXq %r9, %rbp, %r9
adoxq %rbp, %rsi
adcxq %r9, %rdi
MULXq %r10, %r10, %r9
adoxq %r10, %rdi
adcxq %r9, %r13
MULXq %r8, %rdx, %r8
adoxq %rdx, %r13
adcxq %rcx, %r8
adoxq %rcx, %r8
movq $38, %rdx
MULXq %rsi, %r9, %rsi
adoxq %r9, %rbx
adcxq %rsi, %r12
MULXq %rdi, %rdi, %rsi
adoxq %rdi, %r12
adcxq %rsi, %rax
MULXq %r13, %rdi, %rsi
adoxq %rdi, %rax
adcxq %rsi, %r11
MULXq %r8, %rsi, %rdx
adoxq %rsi, %r11
adcxq %rcx, %rdx
adoxq %rcx, %rdx
imulq $38, %rdx, %rdx
addq %rdx, %rbx
adcq %rcx, %r12
adcq %rcx, %rax
adcq %rcx, %r11
sbbq %rcx, %rcx
andq $38, %rcx
addq %rcx, %rbx
movl $25, %ecx
Ljade_scalarmult_curve25519_amd64_mulx$2:
movl %ecx, 344(%rsp)
xorq %r8, %r8
movq %rbx, %rdx
MULXq %rdx, %r9, %r10
MULXq %r12, %rsi, %rcx
MULXq %rax, %rbx, %rdi
adcxq %rbx, %rcx
MULXq %r11, %rdx, %rbx
adcxq %rdx, %rdi
movq %r12, %rdx
MULXq %rax, %r12, %rbp
adoxq %r12, %rdi
adcxq %rbp, %rbx
MULXq %r11, %r12, %rbp
adoxq %r12, %rbx
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %r11, %r14, %rax
adcxq %r14, %rbp
adoxq %r8, %rbp
adcxq %r8, %rax
adoxq %r8, %rax
MULXq %rdx, %r15, %r14
movq %r11, %rdx
MULXq %rdx, %rdx, %r11
adcxq %rsi, %rsi
adoxq %r10, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbx, %rbx
adoxq %r15, %rbx
adcxq %rbp, %rbp
adoxq %r14, %rbp
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r8, %r11
adoxq %r8, %r11
movq $38, %rdx
MULXq %rbx, %rbx, %r10
adoxq %rbx, %r9
adcxq %r10, %rsi
MULXq %rbp, %rbx, %r10
adoxq %rbx, %rsi
adcxq %r10, %rcx
MULXq %rax, %r10, %rax
adoxq %r10, %rcx
adcxq %rax, %rdi
MULXq %r11, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r8, %rax
adoxq %r8, %rax
imulq $38, %rax, %rax
addq %rax, %r9
adcq %r8, %rsi
adcq %r8, %rcx
adcq %r8, %rdi
sbbq %r8, %r8
andq $38, %r8
addq %r8, %r9
xorq %r8, %r8
movq %r9, %rdx
MULXq %rdx, %rbx, %r9
MULXq %rsi, %r12, %rax
MULXq %rcx, %r10, %r11
adcxq %r10, %rax
MULXq %rdi, %rdx, %r10
adcxq %rdx, %r11
movq %rsi, %rdx
MULXq %rcx, %rbp, %rsi
adoxq %rbp, %r11
adcxq %rsi, %r10
MULXq %rdi, %rbp, %rsi
adoxq %rbp, %r10
MULXq %rdx, %r13, %rbp
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r8, %rsi
adcxq %r8, %rcx
adoxq %r8, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r12, %r12
adoxq %r9, %r12
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %r11, %r11
adoxq %rbp, %r11
adcxq %r10, %r10
adoxq %r15, %r10
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r8, %rdi
adoxq %r8, %rdi
movq $38, %rdx
MULXq %r10, %r10, %r9
adoxq %r10, %rbx
adcxq %r9, %r12
MULXq %rsi, %r9, %rsi
adoxq %r9, %r12
adcxq %rsi, %rax
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rax
adcxq %rcx, %r11
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r11
adcxq %r8, %rcx
adoxq %r8, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rbx
adcq %r8, %r12
adcq %r8, %rax
adcq %r8, %r11
sbbq %r8, %r8
andq $38, %r8
addq %r8, %rbx
movl 344(%rsp), %ecx
decl %ecx
jne Ljade_scalarmult_curve25519_amd64_mulx$2
xorq %r9, %r9
movq 120(%rsp), %rdx
MULXq %rbx, %r8, %rsi
MULXq %r12, %rdi, %rcx
adcxq %rdi, %rsi
MULXq %rax, %r10, %rdi
adcxq %r10, %rcx
MULXq %r11, %rdx, %r10
adcxq %rdx, %rdi
adcxq %r9, %r10
movq 128(%rsp), %rdx
MULXq %rbx, %r13, %rbp
adoxq %r13, %rsi
adcxq %rbp, %rcx
MULXq %r12, %r13, %rbp
adoxq %r13, %rcx
adcxq %rbp, %rdi
MULXq %rax, %r13, %rbp
adoxq %r13, %rdi
adcxq %rbp, %r10
MULXq %r11, %rdx, %rbp
adoxq %rdx, %r10
adcxq %r9, %rbp
adoxq %r9, %rbp
movq 136(%rsp), %rdx
MULXq %rbx, %r14, %r13
adoxq %r14, %rcx
adcxq %r13, %rdi
MULXq %r12, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r10
MULXq %rax, %r14, %r13
adoxq %r14, %r10
adcxq %r13, %rbp
MULXq %r11, %rdx, %r13
adoxq %rdx, %rbp
adcxq %r9, %r13
adoxq %r9, %r13
movq 144(%rsp), %rdx
MULXq %rbx, %r14, %rbx
adoxq %r14, %rdi
adcxq %rbx, %r10
MULXq %r12, %r12, %rbx
adoxq %r12, %r10
adcxq %rbx, %rbp
MULXq %rax, %rbx, %rax
adoxq %rbx, %rbp
adcxq %rax, %r13
MULXq %r11, %rdx, %rax
adoxq %rdx, %r13
adcxq %r9, %rax
adoxq %r9, %rax
movq $38, %rdx
MULXq %r10, %r11, %r10
adoxq %r11, %r8
adcxq %r10, %rsi
MULXq %rbp, %r11, %r10
adoxq %r11, %rsi
adcxq %r10, %rcx
MULXq %r13, %r11, %r10
adoxq %r11, %rcx
adcxq %r10, %rdi
MULXq %rax, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r9, %rax
adoxq %r9, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %r9, %rsi
adcq %r9, %rcx
adcq %r9, %rdi
sbbq %r9, %r9
andq $38, %r9
addq %r9, %r8
movl $2, %eax
Ljade_scalarmult_curve25519_amd64_mulx$1:
movl %eax, 344(%rsp)
xorq %r11, %r11
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %rsi, %r9, %rax
MULXq %rcx, %rbp, %r10
adcxq %rbp, %rax
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r10
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r10
adcxq %rsi, %rbp
MULXq %rdi, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r11, %rsi
adcxq %r11, %rcx
adoxq %r11, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r9, %r9
adoxq %rbx, %r9
adcxq %rax, %rax
adoxq %r13, %rax
adcxq %r10, %r10
adoxq %r12, %r10
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r11, %rdi
adoxq %r11, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %r9
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r9
adcxq %rsi, %rax
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rax
adcxq %rcx, %r10
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r10
adcxq %r11, %rcx
adoxq %r11, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r8
adcq %r11, %r9
adcq %r11, %rax
adcq %r11, %r10
sbbq %r11, %r11
andq $38, %r11
addq %r11, %r8
xorq %r11, %r11
movq %r8, %rdx
MULXq %rdx, %r8, %rbx
MULXq %r9, %rsi, %rcx
MULXq %rax, %rbp, %rdi
adcxq %rbp, %rcx
MULXq %r10, %rdx, %rbp
adcxq %rdx, %rdi
movq %r9, %rdx
MULXq %rax, %r12, %r9
adoxq %r12, %rdi
adcxq %r9, %rbp
MULXq %r10, %r12, %r9
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rax, %rdx
MULXq %r10, %r14, %rax
adcxq %r14, %r9
adoxq %r11, %r9
adcxq %r11, %rax
adoxq %r11, %rax
MULXq %rdx, %r15, %r14
movq %r10, %rdx
MULXq %rdx, %rdx, %r10
adcxq %rsi, %rsi
adoxq %rbx, %rsi
adcxq %rcx, %rcx
adoxq %r13, %rcx
adcxq %rdi, %rdi
adoxq %r12, %rdi
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %r9, %r9
adoxq %r14, %r9
adcxq %rax, %rax
adoxq %rdx, %rax
adcxq %r11, %r10
adoxq %r11, %r10
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %r8
adcxq %rbx, %rsi
MULXq %r9, %rbx, %r9
adoxq %rbx, %rsi
adcxq %r9, %rcx
MULXq %rax, %r9, %rax
adoxq %r9, %rcx
adcxq %rax, %rdi
MULXq %r10, %rdx, %rax
adoxq %rdx, %rdi
adcxq %r11, %rax
adoxq %r11, %rax
imulq $38, %rax, %rax
addq %rax, %r8
adcq %r11, %rsi
adcq %r11, %rcx
adcq %r11, %rdi
sbbq %r11, %r11
andq $38, %r11
addq %r11, %r8
movl 344(%rsp), %eax
decl %eax
jne Ljade_scalarmult_curve25519_amd64_mulx$1
xorq %r9, %r9
movq %r8, %rdx
MULXq %rdx, %rax, %rbx
MULXq %rsi, %r10, %r11
MULXq %rcx, %rbp, %r8
adcxq %rbp, %r11
MULXq %rdi, %rdx, %rbp
adcxq %rdx, %r8
movq %rsi, %rdx
MULXq %rcx, %r12, %rsi
adoxq %r12, %r8
adcxq %rsi, %rbp
MULXq %rdi, %r12, %rsi
adoxq %r12, %rbp
MULXq %rdx, %r13, %r12
movq %rcx, %rdx
MULXq %rdi, %r14, %rcx
adcxq %r14, %rsi
adoxq %r9, %rsi
adcxq %r9, %rcx
adoxq %r9, %rcx
MULXq %rdx, %r15, %r14
movq %rdi, %rdx
MULXq %rdx, %rdx, %rdi
adcxq %r10, %r10
adoxq %rbx, %r10
adcxq %r11, %r11
adoxq %r13, %r11
adcxq %r8, %r8
adoxq %r12, %r8
adcxq %rbp, %rbp
adoxq %r15, %rbp
adcxq %rsi, %rsi
adoxq %r14, %rsi
adcxq %rcx, %rcx
adoxq %rdx, %rcx
adcxq %r9, %rdi
adoxq %r9, %rdi
movq $38, %rdx
MULXq %rbp, %rbp, %rbx
adoxq %rbp, %rax
adcxq %rbx, %r10
MULXq %rsi, %rbx, %rsi
adoxq %rbx, %r10
adcxq %rsi, %r11
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %r11
adcxq %rcx, %r8
MULXq %rdi, %rdx, %rcx
adoxq %rdx, %r8
adcxq %r9, %rcx
adoxq %r9, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %rax
adcq %r9, %r10
adcq %r9, %r11
adcq %r9, %r8
sbbq %r9, %r9
andq $38, %r9
addq %r9, %rax
xorq %rbx, %rbx
movq 88(%rsp), %rdx
MULXq %rax, %rsi, %rcx
MULXq %r10, %r9, %rdi
adcxq %r9, %rcx
MULXq %r11, %rbp, %r9
adcxq %rbp, %rdi
MULXq %r8, %rdx, %rbp
adcxq %rdx, %r9
adcxq %rbx, %rbp
movq 96(%rsp), %rdx
MULXq %rax, %r13, %r12
adoxq %r13, %rcx
adcxq %r12, %rdi
MULXq %r10, %r13, %r12
adoxq %r13, %rdi
adcxq %r12, %r9
MULXq %r11, %r13, %r12
adoxq %r13, %r9
adcxq %r12, %rbp
MULXq %r8, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rbx, %r12
adoxq %rbx, %r12
movq 104(%rsp), %rdx
MULXq %rax, %r14, %r13
adoxq %r14, %rdi
adcxq %r13, %r9
MULXq %r10, %r14, %r13
adoxq %r14, %r9
adcxq %r13, %rbp
MULXq %r11, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r8, %rdx, %r13
adoxq %rdx, %r12
adcxq %rbx, %r13
adoxq %rbx, %r13
movq 112(%rsp), %rdx
MULXq %rax, %r14, %rax
adoxq %r14, %r9
adcxq %rax, %rbp
MULXq %r10, %r10, %rax
adoxq %r10, %rbp
adcxq %rax, %r12
MULXq %r11, %r10, %rax
adoxq %r10, %r12
adcxq %rax, %r13
MULXq %r8, %rdx, %rax
adoxq %rdx, %r13
adcxq %rbx, %rax
adoxq %rbx, %rax
movq $38, %rdx
MULXq %rbp, %r10, %r8
adoxq %r10, %rsi
adcxq %r8, %rcx
MULXq %r12, %r10, %r8
adoxq %r10, %rcx
adcxq %r8, %rdi
MULXq %r13, %r10, %r8
adoxq %r10, %rdi
adcxq %r8, %r9
MULXq %rax, %rdx, %rax
adoxq %rdx, %r9
adcxq %rbx, %rax
adoxq %rbx, %rax
imulq $38, %rax, %rax
addq %rax, %rsi
adcq %rbx, %rcx
adcq %rbx, %rdi
adcq %rbx, %r9
sbbq %rbx, %rbx
andq $38, %rbx
addq %rbx, %rsi
xorq %rax, %rax
movq 56(%rsp), %rdx
MULXq %rsi, %r10, %r8
MULXq %rcx, %rbx, %r11
adcxq %rbx, %r8
MULXq %rdi, %rbp, %rbx
adcxq %rbp, %r11
MULXq %r9, %rdx, %rbp
adcxq %rdx, %rbx
adcxq %rax, %rbp
movq 64(%rsp), %rdx
MULXq %rsi, %r13, %r12
adoxq %r13, %r8
adcxq %r12, %r11
MULXq %rcx, %r13, %r12
adoxq %r13, %r11
adcxq %r12, %rbx
MULXq %rdi, %r13, %r12
adoxq %r13, %rbx
adcxq %r12, %rbp
MULXq %r9, %rdx, %r12
adoxq %rdx, %rbp
adcxq %rax, %r12
adoxq %rax, %r12
movq 72(%rsp), %rdx
MULXq %rsi, %r14, %r13
adoxq %r14, %r11
adcxq %r13, %rbx
MULXq %rcx, %r14, %r13
adoxq %r14, %rbx
adcxq %r13, %rbp
MULXq %rdi, %r14, %r13
adoxq %r14, %rbp
adcxq %r13, %r12
MULXq %r9, %rdx, %r13
adoxq %rdx, %r12
adcxq %rax, %r13
adoxq %rax, %r13
movq 80(%rsp), %rdx
MULXq %rsi, %r14, %rsi
adoxq %r14, %rbx
adcxq %rsi, %rbp
MULXq %rcx, %rsi, %rcx
adoxq %rsi, %rbp
adcxq %rcx, %r12
MULXq %rdi, %rsi, %rcx
adoxq %rsi, %r12
adcxq %rcx, %r13
MULXq %r9, %rdx, %rcx
adoxq %rdx, %r13
adcxq %rax, %rcx
adoxq %rax, %rcx
movq $38, %rdx
MULXq %rbp, %rdi, %rsi
adoxq %rdi, %r10
adcxq %rsi, %r8
MULXq %r12, %rdi, %rsi
adoxq %rdi, %r8
adcxq %rsi, %r11
MULXq %r13, %rdi, %rsi
adoxq %rdi, %r11
adcxq %rsi, %rbx
MULXq %rcx, %rdx, %rcx
adoxq %rdx, %rbx
adcxq %rax, %rcx
adoxq %rax, %rcx
imulq $38, %rcx, %rcx
addq %rcx, %r10
adcq %rax, %r8
adcq %rax, %r11
adcq %rax, %rbx
sbbq %rax, %rax
andq $38, %rax
addq %rax, %r10
leaq (%rbx,%rbx), %rax
sarq $63, %rbx
shrq $1, %rax
andq $19, %rbx
addq $19, %rbx
addq %rbx, %r10
adcq $0, %r8
adcq $0, %r11
adcq $0, %rax
leaq (%rax,%rax), %rcx
sarq $63, %rax
shrq $1, %rcx
notq %rax
andq $19, %rax
subq %rax, %r10
sbbq $0, %r8
sbbq $0, %r11
sbbq $0, %rcx
movq (%rsp), %rax
movq %r10, (%rax)
movq %r8, 8(%rax)
movq %r11, 16(%rax)
movq %rcx, 24(%rax)
xorq %rax, %rax
movq 352(%rsp), %rbx
movq 360(%rsp), %rbp
movq 368(%rsp), %r12
movq 376(%rsp), %r13
movq 384(%rsp), %r14
movq 392(%rsp), %r15
movq 400(%rsp), %rsp
ret
|
verdict-x509/verdict
| 18,425
|
deps/libcrux/sys/libjade/jazz/chacha20_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_ref
.globl jade_stream_chacha_chacha20_ietf_amd64_ref
.globl _jade_stream_chacha_chacha20_ietf_amd64_ref_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_ref_xor
_jade_stream_chacha_chacha20_ietf_amd64_ref:
jade_stream_chacha_chacha20_ietf_amd64_ref:
movq %rsp, %rax
leaq -152(%rsp), %rsp
andq $-8, %rsp
movq %rax, 144(%rsp)
movq %rbx, 96(%rsp)
movq %rbp, 104(%rsp)
movq %r12, 112(%rsp)
movq %r13, 120(%rsp)
movq %r14, 128(%rsp)
movq %r15, 136(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
movl $1634760805, 16(%rsp)
movl $857760878, 20(%rsp)
movl $2036477234, 24(%rsp)
movl $1797285236, 28(%rsp)
movl (%rcx), %eax
movl %eax, 32(%rsp)
movl 4(%rcx), %eax
movl %eax, 36(%rsp)
movl 8(%rcx), %eax
movl %eax, 40(%rsp)
movl 12(%rcx), %eax
movl %eax, 44(%rsp)
movl 16(%rcx), %eax
movl %eax, 48(%rsp)
movl 20(%rcx), %eax
movl %eax, 52(%rsp)
movl 24(%rcx), %eax
movl %eax, 56(%rsp)
movl 28(%rcx), %eax
movl %eax, 60(%rsp)
movl $0, 64(%rsp)
movl (%rdx), %eax
movl %eax, 68(%rsp)
movl 4(%rdx), %eax
movl %eax, 72(%rsp)
movl 8(%rdx), %eax
movl %eax, 76(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$7
Ljade_stream_chacha_chacha20_ietf_amd64_ref$8:
movl 76(%rsp), %eax
movl %eax, 80(%rsp)
movl 16(%rsp), %r14d
movl 20(%rsp), %r13d
movl 24(%rsp), %eax
movl 28(%rsp), %r15d
movl 32(%rsp), %ecx
movl 36(%rsp), %edx
movl 40(%rsp), %esi
movl 44(%rsp), %edi
movl 48(%rsp), %r8d
movl 52(%rsp), %r9d
movl 56(%rsp), %r10d
movl 60(%rsp), %r11d
movl 64(%rsp), %ebx
movl 68(%rsp), %ebp
movl 72(%rsp), %r12d
movl %r12d, 84(%rsp)
movl $10, %r12d
Ljade_stream_chacha_chacha20_ietf_amd64_ref$9:
movl %r12d, 88(%rsp)
movl 84(%rsp), %r12d
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $12, %ecx
roll $12, %esi
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $7, %ecx
roll $7, %esi
movl %r12d, 92(%rsp)
movl 80(%rsp), %r12d
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $12, %edx
roll $12, %edi
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $7, %edx
roll $7, %edi
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $12, %esi
roll $12, %edx
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $7, %esi
roll $7, %edx
movl %r12d, 80(%rsp)
movl 92(%rsp), %r12d
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $12, %edi
roll $12, %ecx
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $7, %edi
roll $7, %ecx
movl %r12d, 84(%rsp)
movl 88(%rsp), %r12d
decl %r12d
cmpl $0, %r12d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$9
movl 84(%rsp), %r12d
addl 20(%rsp), %r13d
addl 16(%rsp), %r14d
movl %r13d, %r13d
shlq $32, %r13
movl %r14d, %r14d
xorq %r14, %r13
addl 28(%rsp), %r15d
addl 24(%rsp), %eax
movl %r15d, %r14d
shlq $32, %r14
movl %eax, %eax
xorq %rax, %r14
movq (%rsp), %rax
movq %r13, (%rax)
addl 36(%rsp), %edx
addl 32(%rsp), %ecx
movl %edx, %edx
shlq $32, %rdx
movl %ecx, %ecx
xorq %rcx, %rdx
movq %r14, 8(%rax)
addl 44(%rsp), %edi
addl 40(%rsp), %esi
movl %edi, %ecx
shlq $32, %rcx
movl %esi, %esi
xorq %rsi, %rcx
movq %rdx, 16(%rax)
addl 52(%rsp), %r9d
addl 48(%rsp), %r8d
movl %r9d, %edx
shlq $32, %rdx
movl %r8d, %esi
xorq %rsi, %rdx
movq %rcx, 24(%rax)
addl 60(%rsp), %r11d
addl 56(%rsp), %r10d
movl %r11d, %ecx
shlq $32, %rcx
movl %r10d, %esi
xorq %rsi, %rcx
movq %rdx, 32(%rax)
addl 68(%rsp), %ebp
addl 64(%rsp), %ebx
movl %ebp, %edx
shlq $32, %rdx
movl %ebx, %esi
xorq %rsi, %rdx
movq %rcx, 40(%rax)
movl 80(%rsp), %ecx
addl 76(%rsp), %ecx
addl 72(%rsp), %r12d
movl %ecx, %ecx
shlq $32, %rcx
movl %r12d, %esi
xorq %rsi, %rcx
movq %rdx, 48(%rax)
movq %rcx, 56(%rax)
movq 8(%rsp), %rcx
addq $64, %rax
addq $-64, %rcx
movq %rax, (%rsp)
movq %rcx, 8(%rsp)
movl 64(%rsp), %eax
incl %eax
movl %eax, 64(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_ref$7:
movq 8(%rsp), %rax
cmpq $64, %rax
jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref$8
cmpq $0, %rax
jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$1
movl 76(%rsp), %eax
movl %eax, 80(%rsp)
movl 16(%rsp), %eax
movl 20(%rsp), %ecx
movl 24(%rsp), %edx
movl 28(%rsp), %esi
movl 32(%rsp), %edi
movl 36(%rsp), %r8d
movl 40(%rsp), %r9d
movl 44(%rsp), %r10d
movl 48(%rsp), %r11d
movl 52(%rsp), %ebx
movl 56(%rsp), %ebp
movl 60(%rsp), %r12d
movl 64(%rsp), %r13d
movl 68(%rsp), %r14d
movl 72(%rsp), %r15d
movl %r15d, 84(%rsp)
movl $10, %r15d
Ljade_stream_chacha_chacha20_ietf_amd64_ref$6:
movl %r15d, 88(%rsp)
movl 84(%rsp), %r15d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $12, %edi
roll $12, %r9d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $7, %edi
roll $7, %r9d
movl %r15d, 92(%rsp)
movl 80(%rsp), %r15d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $12, %r8d
roll $12, %r10d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $7, %r8d
roll $7, %r10d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $12, %r9d
roll $12, %r8d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $7, %r9d
roll $7, %r8d
movl %r15d, 80(%rsp)
movl 92(%rsp), %r15d
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $12, %r10d
roll $12, %edi
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $7, %r10d
roll $7, %edi
movl %r15d, 84(%rsp)
movl 88(%rsp), %r15d
decl %r15d
cmpl $0, %r15d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref$6
movl 84(%rsp), %r15d
addl 16(%rsp), %eax
addl 20(%rsp), %ecx
addl 24(%rsp), %edx
addl 28(%rsp), %esi
addl 32(%rsp), %edi
addl 36(%rsp), %r8d
addl 40(%rsp), %r9d
addl 44(%rsp), %r10d
addl 48(%rsp), %r11d
addl 52(%rsp), %ebx
addl 56(%rsp), %ebp
addl 60(%rsp), %r12d
addl 64(%rsp), %r13d
addl 68(%rsp), %r14d
addl 72(%rsp), %r15d
movl %r15d, 84(%rsp)
movl 80(%rsp), %r15d
addl 76(%rsp), %r15d
movl %r15d, 80(%rsp)
movl 84(%rsp), %r15d
movl %eax, 16(%rsp)
movl %ecx, 20(%rsp)
movl %edx, 24(%rsp)
movl %esi, 28(%rsp)
movl %edi, 32(%rsp)
movl %r8d, 36(%rsp)
movl %r9d, 40(%rsp)
movl %r10d, 44(%rsp)
movl %r11d, 48(%rsp)
movl %ebx, 52(%rsp)
movl %ebp, 56(%rsp)
movl %r12d, 60(%rsp)
movl %r13d, 64(%rsp)
movl %r14d, 68(%rsp)
movl %r15d, 72(%rsp)
movl 80(%rsp), %eax
movl %eax, 76(%rsp)
movq (%rsp), %rax
movq 8(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$4
Ljade_stream_chacha_chacha20_ietf_amd64_ref$5:
movq 16(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_ref$4:
cmpq %rdx, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$5
shlq $3, %rsi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref$2
Ljade_stream_chacha_chacha20_ietf_amd64_ref$3:
movb 16(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_ref$2:
cmpq %rcx, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref$3
Ljade_stream_chacha_chacha20_ietf_amd64_ref$1:
xorq %rax, %rax
movq 96(%rsp), %rbx
movq 104(%rsp), %rbp
movq 112(%rsp), %r12
movq 120(%rsp), %r13
movq 128(%rsp), %r14
movq 136(%rsp), %r15
movq 144(%rsp), %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_ref_xor:
jade_stream_chacha_chacha20_ietf_amd64_ref_xor:
movq %rsp, %rax
leaq -160(%rsp), %rsp
andq $-8, %rsp
movq %rax, 152(%rsp)
movq %rbx, 104(%rsp)
movq %rbp, 112(%rsp)
movq %r12, 120(%rsp)
movq %r13, 128(%rsp)
movq %r14, 136(%rsp)
movq %r15, 144(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
movq %rdx, 16(%rsp)
movl $1634760805, 24(%rsp)
movl $857760878, 28(%rsp)
movl $2036477234, 32(%rsp)
movl $1797285236, 36(%rsp)
movl (%r8), %eax
movl %eax, 40(%rsp)
movl 4(%r8), %eax
movl %eax, 44(%rsp)
movl 8(%r8), %eax
movl %eax, 48(%rsp)
movl 12(%r8), %eax
movl %eax, 52(%rsp)
movl 16(%r8), %eax
movl %eax, 56(%rsp)
movl 20(%r8), %eax
movl %eax, 60(%rsp)
movl 24(%r8), %eax
movl %eax, 64(%rsp)
movl 28(%r8), %eax
movl %eax, 68(%rsp)
movl $0, 72(%rsp)
movl (%rcx), %eax
movl %eax, 76(%rsp)
movl 4(%rcx), %eax
movl %eax, 80(%rsp)
movl 8(%rcx), %eax
movl %eax, 84(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8:
movl 84(%rsp), %eax
movl %eax, 88(%rsp)
movl 24(%rsp), %r14d
movl 28(%rsp), %r13d
movl 32(%rsp), %eax
movl 36(%rsp), %r15d
movl 40(%rsp), %ecx
movl 44(%rsp), %edx
movl 48(%rsp), %esi
movl 52(%rsp), %edi
movl 56(%rsp), %r8d
movl 60(%rsp), %r9d
movl 64(%rsp), %r10d
movl 68(%rsp), %r11d
movl 72(%rsp), %ebx
movl 76(%rsp), %ebp
movl 80(%rsp), %r12d
movl %r12d, 92(%rsp)
movl $10, %r12d
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9:
movl %r12d, 96(%rsp)
movl 92(%rsp), %r12d
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $12, %ecx
roll $12, %esi
addl %ecx, %r14d
addl %esi, %eax
xorl %r14d, %ebx
xorl %eax, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r8d
addl %r12d, %r10d
xorl %r8d, %ecx
xorl %r10d, %esi
roll $7, %ecx
roll $7, %esi
movl %r12d, 100(%rsp)
movl 88(%rsp), %r12d
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $12, %edx
roll $12, %edi
addl %edx, %r13d
addl %edi, %r15d
xorl %r13d, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r9d
addl %r12d, %r11d
xorl %r9d, %edx
xorl %r11d, %edi
roll $7, %edx
roll $7, %edi
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $16, %ebx
roll $16, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $12, %esi
roll $12, %edx
addl %esi, %r13d
addl %edx, %r14d
xorl %r13d, %ebx
xorl %r14d, %r12d
roll $8, %ebx
roll $8, %r12d
addl %ebx, %r11d
addl %r12d, %r10d
xorl %r11d, %esi
xorl %r10d, %edx
roll $7, %esi
roll $7, %edx
movl %r12d, 88(%rsp)
movl 100(%rsp), %r12d
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $16, %ebp
roll $16, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $12, %edi
roll $12, %ecx
addl %edi, %eax
addl %ecx, %r15d
xorl %eax, %ebp
xorl %r15d, %r12d
roll $8, %ebp
roll $8, %r12d
addl %ebp, %r8d
addl %r12d, %r9d
xorl %r8d, %edi
xorl %r9d, %ecx
roll $7, %edi
roll $7, %ecx
movl %r12d, 92(%rsp)
movl 96(%rsp), %r12d
decl %r12d
cmpl $0, %r12d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$9
movl 92(%rsp), %r12d
addl 28(%rsp), %r13d
addl 24(%rsp), %r14d
movl %r13d, %r13d
shlq $32, %r13
movl %r14d, %r14d
xorq %r14, %r13
movq 8(%rsp), %r14
xorq (%r14), %r13
addl 36(%rsp), %r15d
addl 32(%rsp), %eax
movl %r15d, %r15d
shlq $32, %r15
movl %eax, %eax
xorq %rax, %r15
xorq 8(%r14), %r15
movq (%rsp), %rax
movq %r13, (%rax)
addl 44(%rsp), %edx
addl 40(%rsp), %ecx
movl %edx, %edx
shlq $32, %rdx
movl %ecx, %ecx
xorq %rcx, %rdx
xorq 16(%r14), %rdx
movq %r15, 8(%rax)
addl 52(%rsp), %edi
addl 48(%rsp), %esi
movl %edi, %ecx
shlq $32, %rcx
movl %esi, %esi
xorq %rsi, %rcx
xorq 24(%r14), %rcx
movq %rdx, 16(%rax)
addl 60(%rsp), %r9d
addl 56(%rsp), %r8d
movl %r9d, %edx
shlq $32, %rdx
movl %r8d, %esi
xorq %rsi, %rdx
xorq 32(%r14), %rdx
movq %rcx, 24(%rax)
addl 68(%rsp), %r11d
addl 64(%rsp), %r10d
movl %r11d, %ecx
shlq $32, %rcx
movl %r10d, %esi
xorq %rsi, %rcx
xorq 40(%r14), %rcx
movq %rdx, 32(%rax)
addl 76(%rsp), %ebp
addl 72(%rsp), %ebx
movl %ebp, %edx
shlq $32, %rdx
movl %ebx, %esi
xorq %rsi, %rdx
xorq 48(%r14), %rdx
movq %rcx, 40(%rax)
movl 88(%rsp), %ecx
addl 84(%rsp), %ecx
addl 80(%rsp), %r12d
movl %ecx, %ecx
shlq $32, %rcx
movl %r12d, %esi
xorq %rsi, %rcx
xorq 56(%r14), %rcx
movq %rdx, 48(%rax)
movq %rcx, 56(%rax)
movq 16(%rsp), %rcx
addq $64, %rax
addq $64, %r14
addq $-64, %rcx
movq %rax, (%rsp)
movq %r14, 8(%rsp)
movq %rcx, 16(%rsp)
movl 72(%rsp), %eax
incl %eax
movl %eax, 72(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$7:
movq 16(%rsp), %rax
cmpq $64, %rax
jnb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$8
cmpq $0, %rax
jbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1
movl 84(%rsp), %eax
movl %eax, 88(%rsp)
movl 24(%rsp), %eax
movl 28(%rsp), %ecx
movl 32(%rsp), %edx
movl 36(%rsp), %esi
movl 40(%rsp), %edi
movl 44(%rsp), %r8d
movl 48(%rsp), %r9d
movl 52(%rsp), %r10d
movl 56(%rsp), %r11d
movl 60(%rsp), %ebx
movl 64(%rsp), %ebp
movl 68(%rsp), %r12d
movl 72(%rsp), %r13d
movl 76(%rsp), %r14d
movl 80(%rsp), %r15d
movl %r15d, 92(%rsp)
movl $10, %r15d
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6:
movl %r15d, 96(%rsp)
movl 92(%rsp), %r15d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $12, %edi
roll $12, %r9d
addl %edi, %eax
addl %r9d, %edx
xorl %eax, %r13d
xorl %edx, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r11d
addl %r15d, %ebp
xorl %r11d, %edi
xorl %ebp, %r9d
roll $7, %edi
roll $7, %r9d
movl %r15d, 100(%rsp)
movl 88(%rsp), %r15d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $12, %r8d
roll $12, %r10d
addl %r8d, %ecx
addl %r10d, %esi
xorl %ecx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %ebx
addl %r15d, %r12d
xorl %ebx, %r8d
xorl %r12d, %r10d
roll $7, %r8d
roll $7, %r10d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $16, %r13d
roll $16, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $12, %r9d
roll $12, %r8d
addl %r9d, %ecx
addl %r8d, %eax
xorl %ecx, %r13d
xorl %eax, %r15d
roll $8, %r13d
roll $8, %r15d
addl %r13d, %r12d
addl %r15d, %ebp
xorl %r12d, %r9d
xorl %ebp, %r8d
roll $7, %r9d
roll $7, %r8d
movl %r15d, 88(%rsp)
movl 100(%rsp), %r15d
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $16, %r14d
roll $16, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $12, %r10d
roll $12, %edi
addl %r10d, %edx
addl %edi, %esi
xorl %edx, %r14d
xorl %esi, %r15d
roll $8, %r14d
roll $8, %r15d
addl %r14d, %r11d
addl %r15d, %ebx
xorl %r11d, %r10d
xorl %ebx, %edi
roll $7, %r10d
roll $7, %edi
movl %r15d, 92(%rsp)
movl 96(%rsp), %r15d
decl %r15d
cmpl $0, %r15d
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$6
movl 92(%rsp), %r15d
addl 24(%rsp), %eax
addl 28(%rsp), %ecx
addl 32(%rsp), %edx
addl 36(%rsp), %esi
addl 40(%rsp), %edi
addl 44(%rsp), %r8d
addl 48(%rsp), %r9d
addl 52(%rsp), %r10d
addl 56(%rsp), %r11d
addl 60(%rsp), %ebx
addl 64(%rsp), %ebp
addl 68(%rsp), %r12d
addl 72(%rsp), %r13d
addl 76(%rsp), %r14d
addl 80(%rsp), %r15d
movl %r15d, 92(%rsp)
movl 88(%rsp), %r15d
addl 84(%rsp), %r15d
movl %r15d, 88(%rsp)
movl 92(%rsp), %r15d
movl %eax, 24(%rsp)
movl %ecx, 28(%rsp)
movl %edx, 32(%rsp)
movl %esi, 36(%rsp)
movl %edi, 40(%rsp)
movl %r8d, 44(%rsp)
movl %r9d, 48(%rsp)
movl %r10d, 52(%rsp)
movl %r11d, 56(%rsp)
movl %ebx, 60(%rsp)
movl %ebp, 64(%rsp)
movl %r12d, 68(%rsp)
movl %r13d, 72(%rsp)
movl %r14d, 76(%rsp)
movl %r15d, 80(%rsp)
movl 88(%rsp), %eax
movl %eax, 84(%rsp)
movq (%rsp), %rax
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq %rdx, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5:
movq (%rcx,%rdi,8), %r8
xorq 24(%rsp,%rdi,8), %r8
movq %r8, (%rax,%rdi,8)
incq %rdi
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$4:
cmpq %rsi, %rdi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$5
shlq $3, %rdi
jmp Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3:
movb (%rcx,%rdi), %sil
xorb 24(%rsp,%rdi), %sil
movb %sil, (%rax,%rdi)
incq %rdi
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$2:
cmpq %rdx, %rdi
jb Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$3
Ljade_stream_chacha_chacha20_ietf_amd64_ref_xor$1:
xorq %rax, %rax
movq 104(%rsp), %rbx
movq 112(%rsp), %rbp
movq 120(%rsp), %r12
movq 128(%rsp), %r13
movq 136(%rsp), %r14
movq 144(%rsp), %r15
movq 152(%rsp), %rsp
ret
|
verdict-x509/verdict
| 70,025
|
deps/libcrux/sys/libjade/jazz/chacha20_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx2
.globl jade_stream_chacha_chacha20_ietf_amd64_avx2
.globl _jade_stream_chacha_chacha20_ietf_amd64_avx2_xor
.globl jade_stream_chacha_chacha20_ietf_amd64_avx2_xor
_jade_stream_chacha_chacha20_ietf_amd64_avx2:
jade_stream_chacha_chacha20_ietf_amd64_avx2:
movq %rsp, %r10
leaq -1152(%rsp), %rsp
andq $-32, %rsp
cmpq $257, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm1, 32(%rsp)
vmovdqu glob_data + 256(%rip), %ymm0
vmovdqu glob_data + 288(%rip), %ymm1
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vpbroadcastd (%rcx), %ymm4
vpbroadcastd 4(%rcx), %ymm5
vpbroadcastd 8(%rcx), %ymm6
vpbroadcastd 12(%rcx), %ymm7
vpbroadcastd 16(%rcx), %ymm8
vpbroadcastd 20(%rcx), %ymm9
vpbroadcastd 24(%rcx), %ymm10
vpbroadcastd 28(%rcx), %ymm11
vmovdqu glob_data + 224(%rip), %ymm12
vpbroadcastd (%rdx), %ymm13
vpbroadcastd 4(%rdx), %ymm14
vpbroadcastd 8(%rdx), %ymm15
vmovdqu %ymm0, 640(%rsp)
vmovdqu %ymm1, 672(%rsp)
vmovdqu %ymm2, 704(%rsp)
vmovdqu %ymm3, 736(%rsp)
vmovdqu %ymm4, 768(%rsp)
vmovdqu %ymm5, 800(%rsp)
vmovdqu %ymm6, 832(%rsp)
vmovdqu %ymm7, 864(%rsp)
vmovdqu %ymm8, 896(%rsp)
vmovdqu %ymm9, 928(%rsp)
vmovdqu %ymm10, 960(%rsp)
vmovdqu %ymm11, 992(%rsp)
vmovdqu %ymm12, 1024(%rsp)
vmovdqu %ymm13, 1056(%rsp)
vmovdqu %ymm14, 1088(%rsp)
vmovdqu %ymm15, 1120(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33:
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$34
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, (%rdi)
vmovdqu %ymm7, 64(%rdi)
vmovdqu %ymm3, 128(%rdi)
vmovdqu %ymm8, 192(%rdi)
vmovdqu %ymm6, 256(%rdi)
vmovdqu %ymm1, 320(%rdi)
vmovdqu %ymm5, 384(%rdi)
vmovdqu %ymm0, 448(%rdi)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu %ymm2, 32(%rdi)
vmovdqu %ymm8, 96(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm7, 224(%rdi)
vmovdqu %ymm3, 288(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu %ymm6, 416(%rdi)
vmovdqu %ymm0, 480(%rdi)
addq $512, %rdi
addq $-512, %rsi
vmovdqu glob_data + 0(%rip), %ymm0
vpaddd 1024(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 1024(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$32:
cmpq $512, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$33
cmpq $0, %rsi
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$31
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, 384(%rsp)
vmovdqu %ymm7, 416(%rsp)
vmovdqu %ymm3, 448(%rsp)
vmovdqu %ymm8, 480(%rsp)
vmovdqu %ymm6, 512(%rsp)
vmovdqu %ymm1, 544(%rsp)
vmovdqu %ymm5, 576(%rsp)
vmovdqu %ymm0, 608(%rsp)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu 384(%rsp), %ymm12
vmovdqu %ymm2, %ymm11
vmovdqu 416(%rsp), %ymm10
vmovdqu %ymm8, %ymm9
vmovdqu 448(%rsp), %ymm8
vmovdqu 480(%rsp), %ymm2
vmovdqu %ymm7, %ymm1
cmpq $256, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
vmovdqu %ymm10, 64(%rdi)
vmovdqu %ymm9, 96(%rdi)
vmovdqu %ymm8, 128(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm2, 192(%rdi)
vmovdqu %ymm1, 224(%rdi)
addq $256, %rdi
addq $-256, %rsi
vmovdqu 512(%rsp), %ymm12
vmovdqu %ymm3, %ymm11
vmovdqu 544(%rsp), %ymm10
vmovdqu %ymm4, %ymm9
vmovdqu 576(%rsp), %ymm8
vmovdqu %ymm6, %ymm5
vmovdqu 608(%rsp), %ymm2
vmovdqu %ymm0, %ymm1
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$30:
cmpq $128, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
vmovdqu %ymm10, 64(%rdi)
vmovdqu %ymm9, 96(%rdi)
addq $128, %rdi
addq $-128, %rsi
vmovdqu %ymm8, %ymm12
vmovdqu %ymm5, %ymm11
vmovdqu %ymm2, %ymm10
vmovdqu %ymm1, %ymm9
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$29:
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28
vmovdqu %ymm12, (%rdi)
vmovdqu %ymm11, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm10, %ymm12
vmovdqu %ymm9, %ymm11
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$28:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27
vmovdqu %ymm12, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm11, %ymm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$27:
vmovdqu %xmm12, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm12, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$26:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$25:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$23:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$24
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$22:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$1:
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu glob_data + 480(%rip), %ymm2
vbroadcasti128 (%rcx), %ymm3
vbroadcasti128 16(%rcx), %ymm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rdx), %xmm5, %xmm5
vpinsrq $1, 4(%rdx), %xmm5, %xmm5
vpxor %ymm6, %ymm6, %ymm6
vinserti128 $0, %xmm5, %ymm6, %ymm6
vinserti128 $1, %xmm5, %ymm6, %ymm5
vpaddd glob_data + 96(%rip), %ymm5, %ymm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$21
vpaddd %ymm2, %ymm6, %ymm6
vpaddd %ymm3, %ymm7, %ymm7
vpaddd %ymm4, %ymm8, %ymm8
vpaddd %ymm5, %ymm9, %ymm9
vpaddd %ymm2, %ymm10, %ymm10
vpaddd %ymm3, %ymm11, %ymm11
vpaddd %ymm4, %ymm12, %ymm12
vpaddd %ymm5, %ymm13, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
vperm2i128 $32, %ymm7, %ymm6, %ymm14
vperm2i128 $32, %ymm9, %ymm8, %ymm15
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm7
vperm2i128 $32, %ymm11, %ymm10, %ymm8
vperm2i128 $32, %ymm13, %ymm12, %ymm9
vperm2i128 $49, %ymm11, %ymm10, %ymm10
vperm2i128 $49, %ymm13, %ymm12, %ymm11
vmovdqu %ymm14, (%rdi)
vmovdqu %ymm15, 32(%rdi)
vmovdqu %ymm6, 64(%rdi)
vmovdqu %ymm7, 96(%rdi)
vmovdqu %ymm8, 128(%rdi)
vmovdqu %ymm9, 160(%rdi)
vmovdqu %ymm10, 192(%rdi)
vmovdqu %ymm11, 224(%rdi)
addq $256, %rdi
addq $-256, %rsi
vpaddd glob_data + 32(%rip), %ymm5, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$19:
cmpq $256, %rsi
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$20
cmpq $128, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18:
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$18
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm2
vpaddd %ymm5, %ymm9, %ymm3
vperm2i128 $32, %ymm1, %ymm0, %ymm5
vperm2i128 $32, %ymm3, %ymm2, %ymm4
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm3, %ymm2, %ymm1
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17
vmovdqu %ymm5, (%rdi)
vmovdqu %ymm4, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm0, %ymm5
vmovdqu %ymm1, %ymm4
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$17:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16
vmovdqu %ymm5, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm4, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$16:
vmovdqu %xmm5, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm5, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$15:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$14:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$12:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$13
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$3:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$11
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm6
vpaddd %ymm5, %ymm9, %ymm7
vpaddd %ymm2, %ymm10, %ymm2
vpaddd %ymm3, %ymm11, %ymm3
vpaddd %ymm4, %ymm12, %ymm4
vpaddd %ymm5, %ymm13, %ymm5
vpaddd glob_data + 64(%rip), %ymm5, %ymm5
vperm2i128 $32, %ymm1, %ymm0, %ymm8
vperm2i128 $32, %ymm7, %ymm6, %ymm9
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm7, %ymm6, %ymm1
vperm2i128 $32, %ymm3, %ymm2, %ymm7
vperm2i128 $32, %ymm5, %ymm4, %ymm6
vperm2i128 $49, %ymm3, %ymm2, %ymm2
vperm2i128 $49, %ymm5, %ymm4, %ymm3
vmovdqu %ymm8, (%rdi)
vmovdqu %ymm9, 32(%rdi)
vmovdqu %ymm0, 64(%rdi)
vmovdqu %ymm1, 96(%rdi)
addq $128, %rdi
addq $-128, %rsi
cmpq $64, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10
vmovdqu %ymm7, (%rdi)
vmovdqu %ymm6, 32(%rdi)
addq $64, %rdi
addq $-64, %rsi
vmovdqu %ymm2, %ymm7
vmovdqu %ymm3, %ymm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$10:
cmpq $32, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9
vmovdqu %ymm7, (%rdi)
addq $32, %rdi
addq $-32, %rsi
vmovdqu %ymm6, %ymm7
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$9:
vmovdqu %xmm7, %xmm0
cmpq $16, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $-16, %rsi
vextracti128 $1, %ymm7, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$8:
vpextrq $0, %xmm0, %rax
cmpq $8, %rsi
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5
movq %rax, (%rdi)
addq $8, %rdi
addq $-8, %rsi
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6:
movb %al, %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
addq $-1, %rsi
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$5:
cmpq $0, %rsi
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx2$2:
xorq %rax, %rax
movq %r10, %rsp
ret
_jade_stream_chacha_chacha20_ietf_amd64_avx2_xor:
jade_stream_chacha_chacha20_ietf_amd64_avx2_xor:
movq %rsp, %r10
leaq -1152(%rsp), %rsp
andq $-32, %rsp
cmpq $257, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu %ymm0, (%rsp)
vmovdqu %ymm1, 32(%rsp)
vmovdqu glob_data + 256(%rip), %ymm0
vmovdqu glob_data + 288(%rip), %ymm1
vmovdqu glob_data + 320(%rip), %ymm2
vmovdqu glob_data + 352(%rip), %ymm3
vpbroadcastd (%r8), %ymm4
vpbroadcastd 4(%r8), %ymm5
vpbroadcastd 8(%r8), %ymm6
vpbroadcastd 12(%r8), %ymm7
vpbroadcastd 16(%r8), %ymm8
vpbroadcastd 20(%r8), %ymm9
vpbroadcastd 24(%r8), %ymm10
vpbroadcastd 28(%r8), %ymm11
vmovdqu glob_data + 224(%rip), %ymm12
vpbroadcastd (%rcx), %ymm13
vpbroadcastd 4(%rcx), %ymm14
vpbroadcastd 8(%rcx), %ymm15
vmovdqu %ymm0, 640(%rsp)
vmovdqu %ymm1, 672(%rsp)
vmovdqu %ymm2, 704(%rsp)
vmovdqu %ymm3, 736(%rsp)
vmovdqu %ymm4, 768(%rsp)
vmovdqu %ymm5, 800(%rsp)
vmovdqu %ymm6, 832(%rsp)
vmovdqu %ymm7, 864(%rsp)
vmovdqu %ymm8, 896(%rsp)
vmovdqu %ymm9, 928(%rsp)
vmovdqu %ymm10, 960(%rsp)
vmovdqu %ymm11, 992(%rsp)
vmovdqu %ymm12, 1024(%rsp)
vmovdqu %ymm13, 1056(%rsp)
vmovdqu %ymm14, 1088(%rsp)
vmovdqu %ymm15, 1120(%rsp)
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33:
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$34
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vpxor (%rsi), %ymm4, %ymm2
vpxor 64(%rsi), %ymm7, %ymm4
vpxor 128(%rsi), %ymm3, %ymm3
vpxor 192(%rsi), %ymm8, %ymm7
vpxor 256(%rsi), %ymm6, %ymm6
vpxor 320(%rsi), %ymm1, %ymm1
vpxor 384(%rsi), %ymm5, %ymm5
vpxor 448(%rsi), %ymm0, %ymm0
vmovdqu %ymm2, (%rdi)
vmovdqu %ymm4, 64(%rdi)
vmovdqu %ymm3, 128(%rdi)
vmovdqu %ymm7, 192(%rdi)
vmovdqu %ymm6, 256(%rdi)
vmovdqu %ymm1, 320(%rdi)
vmovdqu %ymm5, 384(%rdi)
vmovdqu %ymm0, 448(%rdi)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vpxor 32(%rsi), %ymm2, %ymm1
vpxor 96(%rsi), %ymm8, %ymm2
vpxor 160(%rsi), %ymm5, %ymm5
vpxor 224(%rsi), %ymm7, %ymm7
vpxor 288(%rsi), %ymm3, %ymm3
vpxor 352(%rsi), %ymm4, %ymm4
vpxor 416(%rsi), %ymm6, %ymm6
vpxor 480(%rsi), %ymm0, %ymm0
vmovdqu %ymm1, 32(%rdi)
vmovdqu %ymm2, 96(%rdi)
vmovdqu %ymm5, 160(%rdi)
vmovdqu %ymm7, 224(%rdi)
vmovdqu %ymm3, 288(%rdi)
vmovdqu %ymm4, 352(%rdi)
vmovdqu %ymm6, 416(%rdi)
vmovdqu %ymm0, 480(%rdi)
addq $512, %rdi
addq $512, %rsi
addq $-512, %rdx
vmovdqu glob_data + 0(%rip), %ymm0
vpaddd 1024(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 1024(%rsp)
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$32:
cmpq $512, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$33
cmpq $0, %rdx
jbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
vmovdqu 640(%rsp), %ymm0
vmovdqu 672(%rsp), %ymm1
vmovdqu 704(%rsp), %ymm2
vmovdqu 736(%rsp), %ymm3
vmovdqu 768(%rsp), %ymm4
vmovdqu 800(%rsp), %ymm5
vmovdqu 832(%rsp), %ymm6
vmovdqu 864(%rsp), %ymm7
vmovdqu 896(%rsp), %ymm8
vmovdqu 928(%rsp), %ymm9
vmovdqu 960(%rsp), %ymm10
vmovdqu 992(%rsp), %ymm11
vmovdqu 1024(%rsp), %ymm12
vmovdqu 1056(%rsp), %ymm13
vmovdqu 1088(%rsp), %ymm14
vmovdqu 1120(%rsp), %ymm15
vmovdqu %ymm15, 64(%rsp)
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31:
vpaddd %ymm4, %ymm0, %ymm0
vpxor %ymm0, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm4, %ymm0, %ymm0
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm0, %ymm12, %ymm12
vpxor %ymm10, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpaddd %ymm12, %ymm8, %ymm8
vpaddd %ymm6, %ymm2, %ymm2
vpxor %ymm8, %ymm4, %ymm4
vpxor %ymm2, %ymm14, %ymm14
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm6, %ymm6
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vmovdqu 64(%rsp), %ymm15
vmovdqu %ymm14, 96(%rsp)
vpaddd %ymm5, %ymm1, %ymm1
vpxor %ymm1, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm5, %ymm1, %ymm1
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm1, %ymm13, %ymm13
vpxor %ymm11, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm13, %ymm9, %ymm9
vpaddd %ymm7, %ymm3, %ymm3
vpxor %ymm9, %ymm5, %ymm5
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm11, %ymm11
vpxor %ymm11, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpaddd %ymm6, %ymm1, %ymm1
vpxor %ymm1, %ymm12, %ymm12
vpshufb (%rsp), %ymm12, %ymm12
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $12, %ymm6, %ymm15
vpsrld $20, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm6, %ymm1, %ymm1
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm1, %ymm12, %ymm12
vpxor %ymm10, %ymm5, %ymm5
vpshufb 32(%rsp), %ymm12, %ymm12
vpslld $12, %ymm5, %ymm15
vpsrld $20, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vpaddd %ymm12, %ymm11, %ymm11
vpaddd %ymm5, %ymm0, %ymm0
vpxor %ymm11, %ymm6, %ymm6
vpxor %ymm0, %ymm14, %ymm14
vpslld $7, %ymm6, %ymm15
vpsrld $25, %ymm6, %ymm6
vpxor %ymm15, %ymm6, %ymm6
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm10, %ymm10
vpxor %ymm10, %ymm5, %ymm5
vpslld $7, %ymm5, %ymm15
vpsrld $25, %ymm5, %ymm5
vpxor %ymm15, %ymm5, %ymm5
vmovdqu 96(%rsp), %ymm15
vmovdqu %ymm14, 64(%rsp)
vpaddd %ymm7, %ymm2, %ymm2
vpxor %ymm2, %ymm13, %ymm13
vpshufb (%rsp), %ymm13, %ymm13
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm15, %ymm14
vpslld $12, %ymm7, %ymm15
vpsrld $20, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb (%rsp), %ymm14, %ymm14
vpaddd %ymm7, %ymm2, %ymm2
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm2, %ymm13, %ymm13
vpxor %ymm9, %ymm4, %ymm4
vpshufb 32(%rsp), %ymm13, %ymm13
vpslld $12, %ymm4, %ymm15
vpsrld $20, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
vpaddd %ymm13, %ymm8, %ymm8
vpaddd %ymm4, %ymm3, %ymm3
vpxor %ymm8, %ymm7, %ymm7
vpxor %ymm3, %ymm14, %ymm14
vpslld $7, %ymm7, %ymm15
vpsrld $25, %ymm7, %ymm7
vpxor %ymm15, %ymm7, %ymm7
vpshufb 32(%rsp), %ymm14, %ymm14
vpaddd %ymm14, %ymm9, %ymm9
vpxor %ymm9, %ymm4, %ymm4
vpslld $7, %ymm4, %ymm15
vpsrld $25, %ymm4, %ymm4
vpxor %ymm15, %ymm4, %ymm4
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$31
vmovdqu 64(%rsp), %ymm15
vpaddd 640(%rsp), %ymm0, %ymm0
vpaddd 672(%rsp), %ymm1, %ymm1
vpaddd 704(%rsp), %ymm2, %ymm2
vpaddd 736(%rsp), %ymm3, %ymm3
vpaddd 768(%rsp), %ymm4, %ymm4
vpaddd 800(%rsp), %ymm5, %ymm5
vpaddd 832(%rsp), %ymm6, %ymm6
vpaddd 864(%rsp), %ymm7, %ymm7
vpaddd 896(%rsp), %ymm8, %ymm8
vpaddd 928(%rsp), %ymm9, %ymm9
vpaddd 960(%rsp), %ymm10, %ymm10
vpaddd 992(%rsp), %ymm11, %ymm11
vpaddd 1024(%rsp), %ymm12, %ymm12
vpaddd 1056(%rsp), %ymm13, %ymm13
vpaddd 1088(%rsp), %ymm14, %ymm14
vpaddd 1120(%rsp), %ymm15, %ymm15
vmovdqu %ymm8, 128(%rsp)
vmovdqu %ymm9, 160(%rsp)
vmovdqu %ymm10, 192(%rsp)
vmovdqu %ymm11, 224(%rsp)
vmovdqu %ymm12, 256(%rsp)
vmovdqu %ymm13, 288(%rsp)
vmovdqu %ymm14, 320(%rsp)
vmovdqu %ymm15, 352(%rsp)
vpunpckldq %ymm1, %ymm0, %ymm8
vpunpckhdq %ymm1, %ymm0, %ymm0
vpunpckldq %ymm3, %ymm2, %ymm1
vpunpckhdq %ymm3, %ymm2, %ymm2
vpunpckldq %ymm5, %ymm4, %ymm3
vpunpckhdq %ymm5, %ymm4, %ymm4
vpunpckldq %ymm7, %ymm6, %ymm5
vpunpckhdq %ymm7, %ymm6, %ymm6
vpunpcklqdq %ymm1, %ymm8, %ymm7
vpunpcklqdq %ymm5, %ymm3, %ymm9
vpunpckhqdq %ymm1, %ymm8, %ymm1
vpunpckhqdq %ymm5, %ymm3, %ymm3
vpunpcklqdq %ymm2, %ymm0, %ymm5
vpunpcklqdq %ymm6, %ymm4, %ymm8
vpunpckhqdq %ymm2, %ymm0, %ymm0
vpunpckhqdq %ymm6, %ymm4, %ymm2
vperm2i128 $32, %ymm9, %ymm7, %ymm4
vperm2i128 $49, %ymm9, %ymm7, %ymm6
vperm2i128 $32, %ymm3, %ymm1, %ymm7
vperm2i128 $49, %ymm3, %ymm1, %ymm1
vperm2i128 $32, %ymm8, %ymm5, %ymm3
vperm2i128 $49, %ymm8, %ymm5, %ymm5
vperm2i128 $32, %ymm2, %ymm0, %ymm8
vperm2i128 $49, %ymm2, %ymm0, %ymm0
vmovdqu %ymm4, 384(%rsp)
vmovdqu %ymm7, 416(%rsp)
vmovdqu %ymm3, 448(%rsp)
vmovdqu %ymm8, 480(%rsp)
vmovdqu %ymm6, 512(%rsp)
vmovdqu %ymm1, 544(%rsp)
vmovdqu %ymm5, 576(%rsp)
vmovdqu %ymm0, 608(%rsp)
vmovdqu 128(%rsp), %ymm0
vmovdqu 192(%rsp), %ymm1
vmovdqu 256(%rsp), %ymm2
vmovdqu 320(%rsp), %ymm3
vpunpckldq 160(%rsp), %ymm0, %ymm4
vpunpckhdq 160(%rsp), %ymm0, %ymm0
vpunpckldq 224(%rsp), %ymm1, %ymm5
vpunpckhdq 224(%rsp), %ymm1, %ymm1
vpunpckldq 288(%rsp), %ymm2, %ymm6
vpunpckhdq 288(%rsp), %ymm2, %ymm2
vpunpckldq 352(%rsp), %ymm3, %ymm7
vpunpckhdq 352(%rsp), %ymm3, %ymm3
vpunpcklqdq %ymm5, %ymm4, %ymm8
vpunpcklqdq %ymm7, %ymm6, %ymm9
vpunpckhqdq %ymm5, %ymm4, %ymm4
vpunpckhqdq %ymm7, %ymm6, %ymm5
vpunpcklqdq %ymm1, %ymm0, %ymm6
vpunpcklqdq %ymm3, %ymm2, %ymm7
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpunpckhqdq %ymm3, %ymm2, %ymm1
vperm2i128 $32, %ymm9, %ymm8, %ymm2
vperm2i128 $49, %ymm9, %ymm8, %ymm3
vperm2i128 $32, %ymm5, %ymm4, %ymm8
vperm2i128 $49, %ymm5, %ymm4, %ymm4
vperm2i128 $32, %ymm7, %ymm6, %ymm5
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $32, %ymm1, %ymm0, %ymm7
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vmovdqu 384(%rsp), %ymm1
vmovdqu %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm11
vmovdqu %ymm8, %ymm10
vmovdqu 448(%rsp), %ymm9
vmovdqu %ymm5, %ymm8
vmovdqu 480(%rsp), %ymm5
vmovdqu %ymm7, %ymm2
cmpq $256, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30
vpxor (%rsi), %ymm1, %ymm1
vmovdqu %ymm1, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm1
vmovdqu %ymm1, 32(%rdi)
vpxor 64(%rsi), %ymm11, %ymm1
vmovdqu %ymm1, 64(%rdi)
vpxor 96(%rsi), %ymm10, %ymm1
vmovdqu %ymm1, 96(%rdi)
vpxor 128(%rsi), %ymm9, %ymm1
vmovdqu %ymm1, 128(%rdi)
vpxor 160(%rsi), %ymm8, %ymm1
vmovdqu %ymm1, 160(%rdi)
vpxor 192(%rsi), %ymm5, %ymm1
vmovdqu %ymm1, 192(%rdi)
vpxor 224(%rsi), %ymm2, %ymm1
vmovdqu %ymm1, 224(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vmovdqu 512(%rsp), %ymm1
vmovdqu %ymm3, %ymm12
vmovdqu 544(%rsp), %ymm11
vmovdqu %ymm4, %ymm10
vmovdqu 576(%rsp), %ymm9
vmovdqu %ymm6, %ymm8
vmovdqu 608(%rsp), %ymm5
vmovdqu %ymm0, %ymm2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$30:
cmpq $128, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm0
vmovdqu %ymm0, 32(%rdi)
vpxor 64(%rsi), %ymm11, %ymm0
vmovdqu %ymm0, 64(%rdi)
vpxor 96(%rsi), %ymm10, %ymm0
vmovdqu %ymm0, 96(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
vmovdqu %ymm9, %ymm1
vmovdqu %ymm8, %ymm12
vmovdqu %ymm5, %ymm11
vmovdqu %ymm2, %ymm10
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$29:
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm12, %ymm0
vmovdqu %ymm0, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm11, %ymm1
vmovdqu %ymm10, %ymm12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$28:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27
vpxor (%rsi), %ymm1, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm12, %ymm1
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$27:
vmovdqu %xmm1, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm1, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$26:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$25:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$23:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$24
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$22:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$1:
vmovdqu glob_data + 160(%rip), %ymm0
vmovdqu glob_data + 128(%rip), %ymm1
vmovdqu glob_data + 480(%rip), %ymm2
vbroadcasti128 (%r8), %ymm3
vbroadcasti128 16(%r8), %ymm4
vpxor %xmm5, %xmm5, %xmm5
vpinsrd $1, (%rcx), %xmm5, %xmm5
vpinsrq $1, 4(%rcx), %xmm5, %xmm5
vpxor %ymm6, %ymm6, %ymm6
vinserti128 $0, %xmm5, %ymm6, %ymm6
vinserti128 $1, %xmm5, %ymm6, %ymm5
vpaddd glob_data + 96(%rip), %ymm5, %ymm5
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$21
vpaddd %ymm2, %ymm6, %ymm6
vpaddd %ymm3, %ymm7, %ymm7
vpaddd %ymm4, %ymm8, %ymm8
vpaddd %ymm5, %ymm9, %ymm9
vpaddd %ymm2, %ymm10, %ymm10
vpaddd %ymm3, %ymm11, %ymm11
vpaddd %ymm4, %ymm12, %ymm12
vpaddd %ymm5, %ymm13, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
vperm2i128 $32, %ymm7, %ymm6, %ymm14
vperm2i128 $32, %ymm9, %ymm8, %ymm15
vperm2i128 $49, %ymm7, %ymm6, %ymm6
vperm2i128 $49, %ymm9, %ymm8, %ymm7
vperm2i128 $32, %ymm11, %ymm10, %ymm8
vperm2i128 $32, %ymm13, %ymm12, %ymm9
vperm2i128 $49, %ymm11, %ymm10, %ymm10
vperm2i128 $49, %ymm13, %ymm12, %ymm11
vpxor (%rsi), %ymm14, %ymm12
vmovdqu %ymm12, (%rdi)
vpxor 32(%rsi), %ymm15, %ymm12
vmovdqu %ymm12, 32(%rdi)
vpxor 64(%rsi), %ymm6, %ymm6
vmovdqu %ymm6, 64(%rdi)
vpxor 96(%rsi), %ymm7, %ymm6
vmovdqu %ymm6, 96(%rdi)
vpxor 128(%rsi), %ymm8, %ymm6
vmovdqu %ymm6, 128(%rdi)
vpxor 160(%rsi), %ymm9, %ymm6
vmovdqu %ymm6, 160(%rdi)
vpxor 192(%rsi), %ymm10, %ymm6
vmovdqu %ymm6, 192(%rdi)
vpxor 224(%rsi), %ymm11, %ymm6
vmovdqu %ymm6, 224(%rdi)
addq $256, %rdi
addq $256, %rsi
addq $-256, %rdx
vpaddd glob_data + 32(%rip), %ymm5, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$19:
cmpq $256, %rdx
jnb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$20
cmpq $128, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18:
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm0, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm10
vpsrld $20, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpaddd %ymm7, %ymm6, %ymm6
vpxor %ymm6, %ymm9, %ymm9
vpshufb %ymm1, %ymm9, %ymm9
vpaddd %ymm9, %ymm8, %ymm8
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm10
vpsrld $25, %ymm7, %ymm7
vpxor %ymm10, %ymm7, %ymm7
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$18
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm2
vpaddd %ymm5, %ymm9, %ymm3
vperm2i128 $32, %ymm1, %ymm0, %ymm5
vperm2i128 $32, %ymm3, %ymm2, %ymm4
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm3, %ymm2, %ymm1
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17
vpxor (%rsi), %ymm5, %ymm2
vmovdqu %ymm2, (%rdi)
vpxor 32(%rsi), %ymm4, %ymm2
vmovdqu %ymm2, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm0, %ymm5
vmovdqu %ymm1, %ymm4
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$17:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16
vpxor (%rsi), %ymm5, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm4, %ymm5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$16:
vmovdqu %xmm5, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm5, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$15:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$14:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$12:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$13
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$3:
vmovdqu %ymm2, %ymm6
vmovdqu %ymm3, %ymm7
vmovdqu %ymm4, %ymm8
vmovdqu %ymm5, %ymm9
vmovdqu %ymm2, %ymm10
vmovdqu %ymm3, %ymm11
vmovdqu %ymm4, %ymm12
vmovdqu %ymm5, %ymm13
vpaddd glob_data + 64(%rip), %ymm13, %ymm13
movl $10, %eax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11:
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $57, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $-109, %ymm9, %ymm9
vpshufd $57, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $-109, %ymm13, %ymm13
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm0, %ymm9, %ymm9
vpshufb %ymm0, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $12, %ymm7, %ymm14
vpsrld $20, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $12, %ymm11, %ymm14
vpsrld $20, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpaddd %ymm7, %ymm6, %ymm6
vpaddd %ymm11, %ymm10, %ymm10
vpxor %ymm6, %ymm9, %ymm9
vpxor %ymm10, %ymm13, %ymm13
vpshufb %ymm1, %ymm9, %ymm9
vpshufb %ymm1, %ymm13, %ymm13
vpaddd %ymm9, %ymm8, %ymm8
vpaddd %ymm13, %ymm12, %ymm12
vpxor %ymm8, %ymm7, %ymm7
vpslld $7, %ymm7, %ymm14
vpsrld $25, %ymm7, %ymm7
vpxor %ymm12, %ymm11, %ymm11
vpxor %ymm14, %ymm7, %ymm7
vpslld $7, %ymm11, %ymm14
vpsrld $25, %ymm11, %ymm11
vpxor %ymm14, %ymm11, %ymm11
vpshufd $-109, %ymm7, %ymm7
vpshufd $78, %ymm8, %ymm8
vpshufd $57, %ymm9, %ymm9
vpshufd $-109, %ymm11, %ymm11
vpshufd $78, %ymm12, %ymm12
vpshufd $57, %ymm13, %ymm13
decl %eax
cmpl $0, %eax
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$11
vpaddd %ymm2, %ymm6, %ymm0
vpaddd %ymm3, %ymm7, %ymm1
vpaddd %ymm4, %ymm8, %ymm6
vpaddd %ymm5, %ymm9, %ymm7
vpaddd %ymm2, %ymm10, %ymm2
vpaddd %ymm3, %ymm11, %ymm3
vpaddd %ymm4, %ymm12, %ymm4
vpaddd %ymm5, %ymm13, %ymm5
vpaddd glob_data + 64(%rip), %ymm5, %ymm5
vperm2i128 $32, %ymm1, %ymm0, %ymm8
vperm2i128 $32, %ymm7, %ymm6, %ymm9
vperm2i128 $49, %ymm1, %ymm0, %ymm0
vperm2i128 $49, %ymm7, %ymm6, %ymm1
vperm2i128 $32, %ymm3, %ymm2, %ymm7
vperm2i128 $32, %ymm5, %ymm4, %ymm6
vperm2i128 $49, %ymm3, %ymm2, %ymm2
vperm2i128 $49, %ymm5, %ymm4, %ymm3
vpxor (%rsi), %ymm8, %ymm4
vmovdqu %ymm4, (%rdi)
vpxor 32(%rsi), %ymm9, %ymm4
vmovdqu %ymm4, 32(%rdi)
vpxor 64(%rsi), %ymm0, %ymm0
vmovdqu %ymm0, 64(%rdi)
vpxor 96(%rsi), %ymm1, %ymm0
vmovdqu %ymm0, 96(%rdi)
addq $128, %rdi
addq $128, %rsi
addq $-128, %rdx
cmpq $64, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10
vpxor (%rsi), %ymm7, %ymm0
vmovdqu %ymm0, (%rdi)
vpxor 32(%rsi), %ymm6, %ymm0
vmovdqu %ymm0, 32(%rdi)
addq $64, %rdi
addq $64, %rsi
addq $-64, %rdx
vmovdqu %ymm2, %ymm7
vmovdqu %ymm3, %ymm6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$10:
cmpq $32, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9
vpxor (%rsi), %ymm7, %ymm0
vmovdqu %ymm0, (%rdi)
addq $32, %rdi
addq $32, %rsi
addq $-32, %rdx
vmovdqu %ymm6, %ymm7
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$9:
vmovdqu %xmm7, %xmm0
cmpq $16, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8
vpxor (%rsi), %xmm0, %xmm0
vmovdqu %xmm0, (%rdi)
addq $16, %rdi
addq $16, %rsi
addq $-16, %rdx
vextracti128 $1, %ymm7, %xmm0
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$8:
vpextrq $0, %xmm0, %rax
cmpq $8, %rdx
jb Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5
xorq (%rsi), %rax
movq %rax, (%rdi)
addq $8, %rdi
addq $8, %rsi
addq $-8, %rdx
vpextrq $1, %xmm0, %rax
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$7:
jmp Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6:
movb %al, %cl
xorb (%rsi), %cl
movb %cl, (%rdi)
shrq $8, %rax
incq %rdi
incq %rsi
addq $-1, %rdx
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$5:
cmpq $0, %rdx
jnbe Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$6
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$4:
Ljade_stream_chacha_chacha20_ietf_amd64_avx2_xor$2:
xorq %rax, %rax
movq %r10, %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 3
.byte 0
.byte 1
.byte 2
.byte 7
.byte 4
.byte 5
.byte 6
.byte 11
.byte 8
.byte 9
.byte 10
.byte 15
.byte 12
.byte 13
.byte 14
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 2
.byte 3
.byte 0
.byte 1
.byte 6
.byte 7
.byte 4
.byte 5
.byte 10
.byte 11
.byte 8
.byte 9
.byte 14
.byte 15
.byte 12
.byte 13
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 116
.byte 101
.byte 32
.byte 107
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
.byte 101
.byte 120
.byte 112
.byte 97
.byte 110
.byte 100
.byte 32
.byte 51
.byte 50
.byte 45
.byte 98
.byte 121
.byte 116
.byte 101
.byte 32
.byte 107
|
verdict-x509/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_224_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_224_amd64_avx2
.globl jade_hash_sha3_224_amd64_avx2
_jade_hash_sha3_224_amd64_avx2:
jade_hash_sha3_224_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $28, %r9
movb $6, %al
movq $144, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_224_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_224_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
verdict-x509/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_224_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_224_amd64_ref
.globl jade_hash_sha3_224_amd64_ref
_jade_hash_sha3_224_amd64_ref:
jade_hash_sha3_224_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $28, %rcx
movb $6, %r8b
movq $144, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_224_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
verdict-x509/verdict
| 46,736
|
deps/libcrux/sys/libjade/jazz/sha256.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha256_amd64_ref
.globl jade_hash_sha256_amd64_ref
_jade_hash_sha256_amd64_ref:
jade_hash_sha256_amd64_ref:
movq %rsp, %rax
leaq -232(%rsp), %rsp
andq $-8, %rsp
movq %rax, 224(%rsp)
movq %rbx, 176(%rsp)
movq %rbp, 184(%rsp)
movq %r12, 192(%rsp)
movq %r13, 200(%rsp)
movq %r14, 208(%rsp)
movq %r15, 216(%rsp)
movq %rdi, (%rsp)
movq %rdx, %rax
shlq $3, %rax
movq %rax, 8(%rsp)
movl $1779033703, 16(%rsp)
movl $-1150833019, 20(%rsp)
movl $1013904242, 24(%rsp)
movl $-1521486534, 28(%rsp)
movl $1359893119, 32(%rsp)
movl $-1694144372, 36(%rsp)
movl $528734635, 40(%rsp)
movl $1541459225, 44(%rsp)
leaq 16(%rsp), %rdi
leaq -272(%rsp), %rsp
leaq Ljade_hash_sha256_amd64_ref$12(%rip), %rcx
jmp L_blocks_0_ref$1
Ljade_hash_sha256_amd64_ref$12:
leaq 272(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdi
jmp Ljade_hash_sha256_amd64_ref$10
Ljade_hash_sha256_amd64_ref$11:
movb (%rsi,%rdi), %al
movb %al, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$10:
cmpq %rdx, %rdi
jb Ljade_hash_sha256_amd64_ref$11
movb $-128, 48(%rsp,%rdi)
incq %rdi
cmpq $56, %rdx
jb Ljade_hash_sha256_amd64_ref$8
movq $120, %rdx
movq $2, %rax
jmp Ljade_hash_sha256_amd64_ref$9
Ljade_hash_sha256_amd64_ref$8:
movq $56, %rdx
movq $1, %rax
Ljade_hash_sha256_amd64_ref$9:
movb $0, %sil
jmp Ljade_hash_sha256_amd64_ref$6
Ljade_hash_sha256_amd64_ref$7:
movb %sil, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$6:
cmpq %rdx, %rdi
jb Ljade_hash_sha256_amd64_ref$7
addq $7, %rdi
jmp Ljade_hash_sha256_amd64_ref$4
Ljade_hash_sha256_amd64_ref$5:
movb %cl, 48(%rsp,%rdi)
shrq $8, %rcx
addq $-1, %rdi
Ljade_hash_sha256_amd64_ref$4:
cmpq %rdx, %rdi
jnb Ljade_hash_sha256_amd64_ref$5
addq $9, %rdi
jmp Ljade_hash_sha256_amd64_ref$2
Ljade_hash_sha256_amd64_ref$3:
movb %sil, 48(%rsp,%rdi)
incq %rdi
Ljade_hash_sha256_amd64_ref$2:
cmpq $128, %rdi
jb Ljade_hash_sha256_amd64_ref$3
leaq 48(%rsp), %r8
leaq -280(%rsp), %rsp
leaq Ljade_hash_sha256_amd64_ref$1(%rip), %rdx
jmp L_blocks_1_ref$1
Ljade_hash_sha256_amd64_ref$1:
leaq 280(%rsp), %rsp
movq (%rsp), %rax
movl 16(%rsp), %ecx
bswapl %ecx
movl %ecx, (%rax)
movl 20(%rsp), %ecx
bswapl %ecx
movl %ecx, 4(%rax)
movl 24(%rsp), %ecx
bswapl %ecx
movl %ecx, 8(%rax)
movl 28(%rsp), %ecx
bswapl %ecx
movl %ecx, 12(%rax)
movl 32(%rsp), %ecx
bswapl %ecx
movl %ecx, 16(%rax)
movl 36(%rsp), %ecx
bswapl %ecx
movl %ecx, 20(%rax)
movl 40(%rsp), %ecx
bswapl %ecx
movl %ecx, 24(%rax)
movl 44(%rsp), %ecx
bswapl %ecx
movl %ecx, 28(%rax)
xorq %rax, %rax
movq 176(%rsp), %rbx
movq 184(%rsp), %rbp
movq 192(%rsp), %r12
movq 200(%rsp), %r13
movq 208(%rsp), %r14
movq 216(%rsp), %r15
movq 224(%rsp), %rsp
ret
L_blocks_1_ref$1:
leaq glob_data + 0(%rip), %rcx
movq %r9, (%rsp)
movq $0, %rsi
movq (%rsp), %rdi
jmp L_blocks_1_ref$2
L_blocks_1_ref$3:
movl (%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 24(%rsp)
movl 4(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 28(%rsp)
movl 8(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 32(%rsp)
movl 12(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 36(%rsp)
movl 16(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 40(%rsp)
movl 20(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 44(%rsp)
movl 24(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 48(%rsp)
movl 28(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 52(%rsp)
movl 32(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 56(%rsp)
movl 36(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 60(%rsp)
movl 40(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 64(%rsp)
movl 44(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 68(%rsp)
movl 48(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 72(%rsp)
movl 52(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 76(%rsp)
movl 56(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 80(%rsp)
movl 60(%r8,%rsi,4), %r9d
bswapl %r9d
movl %r9d, 84(%rsp)
addq $16, %rsi
movq %rsi, (%rsp)
movq %r8, 8(%rsp)
movl 80(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 60(%rsp), %r8d
movl 28(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 24(%rsp), %r8d
movl %r8d, 88(%rsp)
movl 84(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 64(%rsp), %r8d
movl 32(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 28(%rsp), %r8d
movl %r8d, 92(%rsp)
movl 88(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 68(%rsp), %r8d
movl 36(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 32(%rsp), %r8d
movl %r8d, 96(%rsp)
movl 92(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 72(%rsp), %r8d
movl 40(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 36(%rsp), %r8d
movl %r8d, 100(%rsp)
movl 96(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 76(%rsp), %r8d
movl 44(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 40(%rsp), %r8d
movl %r8d, 104(%rsp)
movl 100(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 80(%rsp), %r8d
movl 48(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 44(%rsp), %r8d
movl %r8d, 108(%rsp)
movl 104(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 84(%rsp), %r8d
movl 52(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 48(%rsp), %r8d
movl %r8d, 112(%rsp)
movl 108(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 88(%rsp), %r8d
movl 56(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 52(%rsp), %r8d
movl %r8d, 116(%rsp)
movl 112(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 92(%rsp), %r8d
movl 60(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 56(%rsp), %r8d
movl %r8d, 120(%rsp)
movl 116(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 96(%rsp), %r8d
movl 64(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 60(%rsp), %r8d
movl %r8d, 124(%rsp)
movl 120(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 100(%rsp), %r8d
movl 68(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 64(%rsp), %r8d
movl %r8d, 128(%rsp)
movl 124(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 104(%rsp), %r8d
movl 72(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 68(%rsp), %r8d
movl %r8d, 132(%rsp)
movl 128(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 108(%rsp), %r8d
movl 76(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 72(%rsp), %r8d
movl %r8d, 136(%rsp)
movl 132(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 112(%rsp), %r8d
movl 80(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 76(%rsp), %r8d
movl %r8d, 140(%rsp)
movl 136(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 116(%rsp), %r8d
movl 84(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 80(%rsp), %r8d
movl %r8d, 144(%rsp)
movl 140(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 120(%rsp), %r8d
movl 88(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 84(%rsp), %r8d
movl %r8d, 148(%rsp)
movl 144(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 124(%rsp), %r8d
movl 92(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 88(%rsp), %r8d
movl %r8d, 152(%rsp)
movl 148(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 128(%rsp), %r8d
movl 96(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 92(%rsp), %r8d
movl %r8d, 156(%rsp)
movl 152(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 132(%rsp), %r8d
movl 100(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 96(%rsp), %r8d
movl %r8d, 160(%rsp)
movl 156(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 136(%rsp), %r8d
movl 104(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 100(%rsp), %r8d
movl %r8d, 164(%rsp)
movl 160(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 140(%rsp), %r8d
movl 108(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 104(%rsp), %r8d
movl %r8d, 168(%rsp)
movl 164(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 144(%rsp), %r8d
movl 112(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 108(%rsp), %r8d
movl %r8d, 172(%rsp)
movl 168(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 148(%rsp), %r8d
movl 116(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 112(%rsp), %r8d
movl %r8d, 176(%rsp)
movl 172(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 152(%rsp), %r8d
movl 120(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 116(%rsp), %r8d
movl %r8d, 180(%rsp)
movl 176(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 156(%rsp), %r8d
movl 124(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 120(%rsp), %r8d
movl %r8d, 184(%rsp)
movl 180(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 160(%rsp), %r8d
movl 128(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 124(%rsp), %r8d
movl %r8d, 188(%rsp)
movl 184(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 164(%rsp), %r8d
movl 132(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 128(%rsp), %r8d
movl %r8d, 192(%rsp)
movl 188(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 168(%rsp), %r8d
movl 136(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 132(%rsp), %r8d
movl %r8d, 196(%rsp)
movl 192(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 172(%rsp), %r8d
movl 140(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 136(%rsp), %r8d
movl %r8d, 200(%rsp)
movl 196(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 176(%rsp), %r8d
movl 144(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 140(%rsp), %r8d
movl %r8d, 204(%rsp)
movl 200(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 180(%rsp), %r8d
movl 148(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 144(%rsp), %r8d
movl %r8d, 208(%rsp)
movl 204(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 184(%rsp), %r8d
movl 152(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 148(%rsp), %r8d
movl %r8d, 212(%rsp)
movl 208(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 188(%rsp), %r8d
movl 156(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 152(%rsp), %r8d
movl %r8d, 216(%rsp)
movl 212(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 192(%rsp), %r8d
movl 160(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 156(%rsp), %r8d
movl %r8d, 220(%rsp)
movl 216(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 196(%rsp), %r8d
movl 164(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 160(%rsp), %r8d
movl %r8d, 224(%rsp)
movl 220(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 200(%rsp), %r8d
movl 168(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 164(%rsp), %r8d
movl %r8d, 228(%rsp)
movl 224(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 204(%rsp), %r8d
movl 172(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 168(%rsp), %r8d
movl %r8d, 232(%rsp)
movl 228(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 208(%rsp), %r8d
movl 176(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 172(%rsp), %r8d
movl %r8d, 236(%rsp)
movl 232(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 212(%rsp), %r8d
movl 180(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 176(%rsp), %r8d
movl %r8d, 240(%rsp)
movl 236(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 216(%rsp), %r8d
movl 184(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 180(%rsp), %r8d
movl %r8d, 244(%rsp)
movl 240(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 220(%rsp), %r8d
movl 188(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 184(%rsp), %r8d
movl %r8d, 248(%rsp)
movl 244(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 224(%rsp), %r8d
movl 192(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 188(%rsp), %r8d
movl %r8d, 252(%rsp)
movl 248(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 228(%rsp), %r8d
movl 196(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 192(%rsp), %r8d
movl %r8d, 256(%rsp)
movl 252(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 232(%rsp), %r8d
movl 200(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 196(%rsp), %r8d
movl %r8d, 260(%rsp)
movl 256(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 236(%rsp), %r8d
movl 204(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 200(%rsp), %r8d
movl %r8d, 264(%rsp)
movl 260(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 240(%rsp), %r8d
movl 208(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 204(%rsp), %r8d
movl %r8d, 268(%rsp)
movl 264(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 244(%rsp), %r8d
movl 212(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 208(%rsp), %r8d
movl %r8d, 272(%rsp)
movl 268(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 248(%rsp), %r8d
movl 216(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 212(%rsp), %r8d
movl %r8d, 276(%rsp)
movl (%rdi), %r14d
movl 4(%rdi), %esi
movl 8(%rdi), %r8d
movl 12(%rdi), %r9d
movl 16(%rdi), %r13d
movl 20(%rdi), %r10d
movl 24(%rdi), %r11d
movl 28(%rdi), %r12d
movq %rdi, 16(%rsp)
movq $0, %rdi
jmp L_blocks_1_ref$4
L_blocks_1_ref$5:
movl %r12d, %ebx
movl %r13d, %ebp
rorl $6, %ebp
movl %r13d, %r12d
rorl $11, %r12d
xorl %r12d, %ebp
movl %r13d, %r12d
rorl $25, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
movl %r13d, %ebp
andl %r10d, %ebp
movl %r13d, %r12d
notl %r12d
andl %r11d, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
addl (%rcx,%rdi,4), %ebx
addl 24(%rsp,%rdi,4), %ebx
movl %r14d, %ebp
rorl $2, %ebp
movl %r14d, %r12d
rorl $13, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
rorl $22, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
andl %esi, %r12d
movl %r14d, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
movl %esi, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
addl %r12d, %ebp
movl %r11d, %r12d
movl %r10d, %r11d
movl %r13d, %r10d
movl %r9d, %r13d
addl %ebx, %r13d
movl %r8d, %r9d
movl %esi, %r8d
movl %r14d, %esi
movl %ebx, %r14d
addl %ebp, %r14d
incq %rdi
L_blocks_1_ref$4:
cmpq $64, %rdi
jb L_blocks_1_ref$5
movq 16(%rsp), %rdi
addl (%rdi), %r14d
addl 4(%rdi), %esi
addl 8(%rdi), %r8d
addl 12(%rdi), %r9d
addl 16(%rdi), %r13d
addl 20(%rdi), %r10d
addl 24(%rdi), %r11d
addl 28(%rdi), %r12d
movl %r14d, (%rdi)
movl %esi, 4(%rdi)
movl %r8d, 8(%rdi)
movl %r9d, 12(%rdi)
movl %r13d, 16(%rdi)
movl %r10d, 20(%rdi)
movl %r11d, 24(%rdi)
movl %r12d, 28(%rdi)
movq 8(%rsp), %r8
movq (%rsp), %rsi
addq $-1, %rax
L_blocks_1_ref$2:
cmpq $0, %rax
jnbe L_blocks_1_ref$3
jmp *%rdx
L_blocks_0_ref$1:
leaq glob_data + 0(%rip), %rax
movq %rdi, (%rsp)
movq (%rsp), %rdi
jmp L_blocks_0_ref$2
L_blocks_0_ref$3:
movl (%rsi), %r8d
bswapl %r8d
movl %r8d, 16(%rsp)
movl 4(%rsi), %r8d
bswapl %r8d
movl %r8d, 20(%rsp)
movl 8(%rsi), %r8d
bswapl %r8d
movl %r8d, 24(%rsp)
movl 12(%rsi), %r8d
bswapl %r8d
movl %r8d, 28(%rsp)
movl 16(%rsi), %r8d
bswapl %r8d
movl %r8d, 32(%rsp)
movl 20(%rsi), %r8d
bswapl %r8d
movl %r8d, 36(%rsp)
movl 24(%rsi), %r8d
bswapl %r8d
movl %r8d, 40(%rsp)
movl 28(%rsi), %r8d
bswapl %r8d
movl %r8d, 44(%rsp)
movl 32(%rsi), %r8d
bswapl %r8d
movl %r8d, 48(%rsp)
movl 36(%rsi), %r8d
bswapl %r8d
movl %r8d, 52(%rsp)
movl 40(%rsi), %r8d
bswapl %r8d
movl %r8d, 56(%rsp)
movl 44(%rsi), %r8d
bswapl %r8d
movl %r8d, 60(%rsp)
movl 48(%rsi), %r8d
bswapl %r8d
movl %r8d, 64(%rsp)
movl 52(%rsi), %r8d
bswapl %r8d
movl %r8d, 68(%rsp)
movl 56(%rsi), %r8d
bswapl %r8d
movl %r8d, 72(%rsp)
movl 60(%rsi), %r8d
bswapl %r8d
movl %r8d, 76(%rsp)
movq %rsi, (%rsp)
movl 72(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 52(%rsp), %r8d
movl 20(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 16(%rsp), %r8d
movl %r8d, 80(%rsp)
movl 76(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 56(%rsp), %r8d
movl 24(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 20(%rsp), %r8d
movl %r8d, 84(%rsp)
movl 80(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 60(%rsp), %r8d
movl 28(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 24(%rsp), %r8d
movl %r8d, 88(%rsp)
movl 84(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 64(%rsp), %r8d
movl 32(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 28(%rsp), %r8d
movl %r8d, 92(%rsp)
movl 88(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 68(%rsp), %r8d
movl 36(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 32(%rsp), %r8d
movl %r8d, 96(%rsp)
movl 92(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 72(%rsp), %r8d
movl 40(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 36(%rsp), %r8d
movl %r8d, 100(%rsp)
movl 96(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 76(%rsp), %r8d
movl 44(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 40(%rsp), %r8d
movl %r8d, 104(%rsp)
movl 100(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 80(%rsp), %r8d
movl 48(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 44(%rsp), %r8d
movl %r8d, 108(%rsp)
movl 104(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 84(%rsp), %r8d
movl 52(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 48(%rsp), %r8d
movl %r8d, 112(%rsp)
movl 108(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 88(%rsp), %r8d
movl 56(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 52(%rsp), %r8d
movl %r8d, 116(%rsp)
movl 112(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 92(%rsp), %r8d
movl 60(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 56(%rsp), %r8d
movl %r8d, 120(%rsp)
movl 116(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 96(%rsp), %r8d
movl 64(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 60(%rsp), %r8d
movl %r8d, 124(%rsp)
movl 120(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 100(%rsp), %r8d
movl 68(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 64(%rsp), %r8d
movl %r8d, 128(%rsp)
movl 124(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 104(%rsp), %r8d
movl 72(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 68(%rsp), %r8d
movl %r8d, 132(%rsp)
movl 128(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 108(%rsp), %r8d
movl 76(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 72(%rsp), %r8d
movl %r8d, 136(%rsp)
movl 132(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 112(%rsp), %r8d
movl 80(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 76(%rsp), %r8d
movl %r8d, 140(%rsp)
movl 136(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 116(%rsp), %r8d
movl 84(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 80(%rsp), %r8d
movl %r8d, 144(%rsp)
movl 140(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 120(%rsp), %r8d
movl 88(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 84(%rsp), %r8d
movl %r8d, 148(%rsp)
movl 144(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 124(%rsp), %r8d
movl 92(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 88(%rsp), %r8d
movl %r8d, 152(%rsp)
movl 148(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 128(%rsp), %r8d
movl 96(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 92(%rsp), %r8d
movl %r8d, 156(%rsp)
movl 152(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 132(%rsp), %r8d
movl 100(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 96(%rsp), %r8d
movl %r8d, 160(%rsp)
movl 156(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 136(%rsp), %r8d
movl 104(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 100(%rsp), %r8d
movl %r8d, 164(%rsp)
movl 160(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 140(%rsp), %r8d
movl 108(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 104(%rsp), %r8d
movl %r8d, 168(%rsp)
movl 164(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 144(%rsp), %r8d
movl 112(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 108(%rsp), %r8d
movl %r8d, 172(%rsp)
movl 168(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 148(%rsp), %r8d
movl 116(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 112(%rsp), %r8d
movl %r8d, 176(%rsp)
movl 172(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 152(%rsp), %r8d
movl 120(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 116(%rsp), %r8d
movl %r8d, 180(%rsp)
movl 176(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 156(%rsp), %r8d
movl 124(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 120(%rsp), %r8d
movl %r8d, 184(%rsp)
movl 180(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 160(%rsp), %r8d
movl 128(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 124(%rsp), %r8d
movl %r8d, 188(%rsp)
movl 184(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 164(%rsp), %r8d
movl 132(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 128(%rsp), %r8d
movl %r8d, 192(%rsp)
movl 188(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 168(%rsp), %r8d
movl 136(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 132(%rsp), %r8d
movl %r8d, 196(%rsp)
movl 192(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 172(%rsp), %r8d
movl 140(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 136(%rsp), %r8d
movl %r8d, 200(%rsp)
movl 196(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 176(%rsp), %r8d
movl 144(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 140(%rsp), %r8d
movl %r8d, 204(%rsp)
movl 200(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 180(%rsp), %r8d
movl 148(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 144(%rsp), %r8d
movl %r8d, 208(%rsp)
movl 204(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 184(%rsp), %r8d
movl 152(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 148(%rsp), %r8d
movl %r8d, 212(%rsp)
movl 208(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 188(%rsp), %r8d
movl 156(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 152(%rsp), %r8d
movl %r8d, 216(%rsp)
movl 212(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 192(%rsp), %r8d
movl 160(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 156(%rsp), %r8d
movl %r8d, 220(%rsp)
movl 216(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 196(%rsp), %r8d
movl 164(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 160(%rsp), %r8d
movl %r8d, 224(%rsp)
movl 220(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 200(%rsp), %r8d
movl 168(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 164(%rsp), %r8d
movl %r8d, 228(%rsp)
movl 224(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 204(%rsp), %r8d
movl 172(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 168(%rsp), %r8d
movl %r8d, 232(%rsp)
movl 228(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 208(%rsp), %r8d
movl 176(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 172(%rsp), %r8d
movl %r8d, 236(%rsp)
movl 232(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 212(%rsp), %r8d
movl 180(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 176(%rsp), %r8d
movl %r8d, 240(%rsp)
movl 236(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 216(%rsp), %r8d
movl 184(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 180(%rsp), %r8d
movl %r8d, 244(%rsp)
movl 240(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 220(%rsp), %r8d
movl 188(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 184(%rsp), %r8d
movl %r8d, 248(%rsp)
movl 244(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 224(%rsp), %r8d
movl 192(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 188(%rsp), %r8d
movl %r8d, 252(%rsp)
movl 248(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 228(%rsp), %r8d
movl 196(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 192(%rsp), %r8d
movl %r8d, 256(%rsp)
movl 252(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 232(%rsp), %r8d
movl 200(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 196(%rsp), %r8d
movl %r8d, 260(%rsp)
movl 256(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 236(%rsp), %r8d
movl 204(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 200(%rsp), %r8d
movl %r8d, 264(%rsp)
movl 260(%rsp), %esi
movl %esi, %r8d
rorl $17, %r8d
movl %esi, %r9d
rorl $19, %r9d
xorl %r9d, %r8d
shrl $10, %esi
xorl %esi, %r8d
addl 240(%rsp), %r8d
movl 208(%rsp), %esi
movl %esi, %r9d
rorl $7, %r9d
movl %esi, %r10d
rorl $18, %r10d
xorl %r10d, %r9d
shrl $3, %esi
xorl %esi, %r9d
addl %r9d, %r8d
addl 204(%rsp), %r8d
movl %r8d, 268(%rsp)
movl (%rdi), %r14d
movl 4(%rdi), %esi
movl 8(%rdi), %r8d
movl 12(%rdi), %r9d
movl 16(%rdi), %r13d
movl 20(%rdi), %r10d
movl 24(%rdi), %r11d
movl 28(%rdi), %r12d
movq %rdi, 8(%rsp)
movq $0, %rdi
jmp L_blocks_0_ref$4
L_blocks_0_ref$5:
movl %r12d, %ebx
movl %r13d, %ebp
rorl $6, %ebp
movl %r13d, %r12d
rorl $11, %r12d
xorl %r12d, %ebp
movl %r13d, %r12d
rorl $25, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
movl %r13d, %ebp
andl %r10d, %ebp
movl %r13d, %r12d
notl %r12d
andl %r11d, %r12d
xorl %r12d, %ebp
addl %ebp, %ebx
addl (%rax,%rdi,4), %ebx
addl 16(%rsp,%rdi,4), %ebx
movl %r14d, %ebp
rorl $2, %ebp
movl %r14d, %r12d
rorl $13, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
rorl $22, %r12d
xorl %r12d, %ebp
movl %r14d, %r12d
andl %esi, %r12d
movl %r14d, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
movl %esi, %r15d
andl %r8d, %r15d
xorl %r15d, %r12d
addl %r12d, %ebp
movl %r11d, %r12d
movl %r10d, %r11d
movl %r13d, %r10d
movl %r9d, %r13d
addl %ebx, %r13d
movl %r8d, %r9d
movl %esi, %r8d
movl %r14d, %esi
movl %ebx, %r14d
addl %ebp, %r14d
incq %rdi
L_blocks_0_ref$4:
cmpq $64, %rdi
jb L_blocks_0_ref$5
movq 8(%rsp), %rdi
addl (%rdi), %r14d
addl 4(%rdi), %esi
addl 8(%rdi), %r8d
addl 12(%rdi), %r9d
addl 16(%rdi), %r13d
addl 20(%rdi), %r10d
addl 24(%rdi), %r11d
addl 28(%rdi), %r12d
movl %r14d, (%rdi)
movl %esi, 4(%rdi)
movl %r8d, 8(%rdi)
movl %r9d, 12(%rdi)
movl %r13d, 16(%rdi)
movl %r10d, 20(%rdi)
movl %r11d, 24(%rdi)
movl %r12d, 28(%rdi)
movq (%rsp), %rsi
addq $64, %rsi
addq $-64, %rdx
L_blocks_0_ref$2:
cmpq $64, %rdx
jnb L_blocks_0_ref$3
movq %rdi, %r9
jmp *%rcx
.data
.p2align 5
_glob_data:
glob_data:
.byte -104
.byte 47
.byte -118
.byte 66
.byte -111
.byte 68
.byte 55
.byte 113
.byte -49
.byte -5
.byte -64
.byte -75
.byte -91
.byte -37
.byte -75
.byte -23
.byte 91
.byte -62
.byte 86
.byte 57
.byte -15
.byte 17
.byte -15
.byte 89
.byte -92
.byte -126
.byte 63
.byte -110
.byte -43
.byte 94
.byte 28
.byte -85
.byte -104
.byte -86
.byte 7
.byte -40
.byte 1
.byte 91
.byte -125
.byte 18
.byte -66
.byte -123
.byte 49
.byte 36
.byte -61
.byte 125
.byte 12
.byte 85
.byte 116
.byte 93
.byte -66
.byte 114
.byte -2
.byte -79
.byte -34
.byte -128
.byte -89
.byte 6
.byte -36
.byte -101
.byte 116
.byte -15
.byte -101
.byte -63
.byte -63
.byte 105
.byte -101
.byte -28
.byte -122
.byte 71
.byte -66
.byte -17
.byte -58
.byte -99
.byte -63
.byte 15
.byte -52
.byte -95
.byte 12
.byte 36
.byte 111
.byte 44
.byte -23
.byte 45
.byte -86
.byte -124
.byte 116
.byte 74
.byte -36
.byte -87
.byte -80
.byte 92
.byte -38
.byte -120
.byte -7
.byte 118
.byte 82
.byte 81
.byte 62
.byte -104
.byte 109
.byte -58
.byte 49
.byte -88
.byte -56
.byte 39
.byte 3
.byte -80
.byte -57
.byte 127
.byte 89
.byte -65
.byte -13
.byte 11
.byte -32
.byte -58
.byte 71
.byte -111
.byte -89
.byte -43
.byte 81
.byte 99
.byte -54
.byte 6
.byte 103
.byte 41
.byte 41
.byte 20
.byte -123
.byte 10
.byte -73
.byte 39
.byte 56
.byte 33
.byte 27
.byte 46
.byte -4
.byte 109
.byte 44
.byte 77
.byte 19
.byte 13
.byte 56
.byte 83
.byte 84
.byte 115
.byte 10
.byte 101
.byte -69
.byte 10
.byte 106
.byte 118
.byte 46
.byte -55
.byte -62
.byte -127
.byte -123
.byte 44
.byte 114
.byte -110
.byte -95
.byte -24
.byte -65
.byte -94
.byte 75
.byte 102
.byte 26
.byte -88
.byte 112
.byte -117
.byte 75
.byte -62
.byte -93
.byte 81
.byte 108
.byte -57
.byte 25
.byte -24
.byte -110
.byte -47
.byte 36
.byte 6
.byte -103
.byte -42
.byte -123
.byte 53
.byte 14
.byte -12
.byte 112
.byte -96
.byte 106
.byte 16
.byte 22
.byte -63
.byte -92
.byte 25
.byte 8
.byte 108
.byte 55
.byte 30
.byte 76
.byte 119
.byte 72
.byte 39
.byte -75
.byte -68
.byte -80
.byte 52
.byte -77
.byte 12
.byte 28
.byte 57
.byte 74
.byte -86
.byte -40
.byte 78
.byte 79
.byte -54
.byte -100
.byte 91
.byte -13
.byte 111
.byte 46
.byte 104
.byte -18
.byte -126
.byte -113
.byte 116
.byte 111
.byte 99
.byte -91
.byte 120
.byte 20
.byte 120
.byte -56
.byte -124
.byte 8
.byte 2
.byte -57
.byte -116
.byte -6
.byte -1
.byte -66
.byte -112
.byte -21
.byte 108
.byte 80
.byte -92
.byte -9
.byte -93
.byte -7
.byte -66
.byte -14
.byte 120
.byte 113
.byte -58
|
verdict-x509/verdict
| 34,209
|
deps/libcrux/sys/libjade/jazz/sha3_384_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_384_amd64_avx2
.globl jade_hash_sha3_384_amd64_avx2
_jade_hash_sha3_384_amd64_avx2:
jade_hash_sha3_384_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $48, %r9
movb $6, %al
movq $104, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_384_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_384_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
verdict-x509/verdict
| 34,208
|
deps/libcrux/sys/libjade/jazz/sha3_512_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_512_amd64_avx2
.globl jade_hash_sha3_512_amd64_avx2
_jade_hash_sha3_512_amd64_avx2:
jade_hash_sha3_512_amd64_avx2:
movq %rsp, %rax
leaq -40(%rsp), %rsp
andq $-32, %rsp
movq %rax, 32(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq $64, %r9
movb $6, %al
movq $72, %rcx
leaq -224(%rsp), %rsp
leaq Ljade_hash_sha3_512_amd64_avx2$1(%rip), %r10
jmp L_keccak1600_avx2$1
Ljade_hash_sha3_512_amd64_avx2$1:
leaq 224(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %rsp
ret
L_keccak1600_avx2$1:
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm5, %ymm5, %ymm5
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm2, %ymm2, %ymm2
leaq glob_data + 1152(%rip), %r8
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
jmp L_keccak1600_avx2$16
L_keccak1600_avx2$17:
movq %rcx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$19
L_keccak1600_avx2$20:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$19:
cmpq %r11, %rbx
jb L_keccak1600_avx2$20
movq (%rsp), %r11
movq %r11, 8(%rsp)
movq %r11, 16(%rsp)
movq %r11, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
addq %rcx, %rsi
subq %rcx, %rdx
leaq glob_data + 384(%rip), %r11
movq $0, %rbx
leaq glob_data + 192(%rip), %rbp
leaq glob_data + 0(%rip), %r12
movq $24, %r13
L_keccak1600_avx2$18:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rbp), %ymm4, %ymm7
vpsrlvq (%r12), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rbp), %ymm0, %ymm7
vpsrlvq 64(%r12), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rbp), %ymm5, %ymm7
vpsrlvq 96(%r12), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rbp), %ymm1, %ymm5
vpsrlvq 128(%r12), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rbp), %ymm2, %ymm0
vpsrlvq 160(%r12), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rbp), %ymm0, %ymm1
vpsrlvq 32(%r12), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%r11,%rbx), %ymm6, %ymm6
addq $32, %rbx
decq %r13
jne L_keccak1600_avx2$18
L_keccak1600_avx2$16:
cmpq %rcx, %rdx
jnb L_keccak1600_avx2$17
vpxor %ymm7, %ymm7, %ymm7
vmovdqu %ymm7, (%rsp)
vmovdqu %ymm7, 32(%rsp)
vmovdqu %ymm7, 64(%rsp)
vmovdqu %ymm7, 96(%rsp)
vmovdqu %ymm7, 128(%rsp)
vmovdqu %ymm7, 160(%rsp)
vmovdqu %ymm7, 192(%rsp)
movq %rdx, %r11
shrq $3, %r11
movq $0, %rbx
jmp L_keccak1600_avx2$14
L_keccak1600_avx2$15:
movq (%rsi,%rbx,8), %rbp
movq (%r8,%rbx,8), %r12
movq %rbp, (%rsp,%r12,8)
incq %rbx
L_keccak1600_avx2$14:
cmpq %r11, %rbx
jb L_keccak1600_avx2$15
movq (%r8,%rbx,8), %r11
shlq $3, %r11
shlq $3, %rbx
jmp L_keccak1600_avx2$12
L_keccak1600_avx2$13:
movb (%rsi,%rbx), %bpl
movb %bpl, (%rsp,%r11)
incq %rbx
incq %r11
L_keccak1600_avx2$12:
cmpq %rdx, %rbx
jb L_keccak1600_avx2$13
movb %al, (%rsp,%r11)
movq %rcx, %rax
addq $-1, %rax
shrq $3, %rax
movq (%r8,%rax,8), %rax
shlq $3, %rax
movq %rcx, %rdx
addq $-1, %rdx
andq $7, %rdx
addq %rdx, %rax
xorb $-128, (%rsp,%rax)
movq (%rsp), %rax
movq %rax, 8(%rsp)
movq %rax, 16(%rsp)
movq %rax, 24(%rsp)
vpxor (%rsp), %ymm6, %ymm6
vpxor 32(%rsp), %ymm3, %ymm3
vpxor 64(%rsp), %ymm4, %ymm4
vpxor 96(%rsp), %ymm0, %ymm0
vpxor 128(%rsp), %ymm5, %ymm5
vpxor 160(%rsp), %ymm1, %ymm1
vpxor 192(%rsp), %ymm2, %ymm2
leaq glob_data + 1152(%rip), %rax
jmp L_keccak1600_avx2$7
L_keccak1600_avx2$8:
leaq glob_data + 384(%rip), %rdx
movq $0, %rsi
leaq glob_data + 192(%rip), %r8
leaq glob_data + 0(%rip), %r11
movq $24, %rbx
L_keccak1600_avx2$11:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%r8), %ymm4, %ymm7
vpsrlvq (%r11), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%r8), %ymm0, %ymm7
vpsrlvq 64(%r11), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%r8), %ymm5, %ymm7
vpsrlvq 96(%r11), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%r8), %ymm1, %ymm5
vpsrlvq 128(%r11), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%r8), %ymm2, %ymm0
vpsrlvq 160(%r11), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%r8), %ymm0, %ymm1
vpsrlvq 32(%r11), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rdx,%rsi), %ymm6, %ymm6
addq $32, %rsi
decq %rbx
jne L_keccak1600_avx2$11
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_avx2$9
L_keccak1600_avx2$10:
movq (%rax,%rsi,8), %r8
movq (%rsp,%r8,8), %r8
movq %r8, (%rdi,%rsi,8)
incq %rsi
L_keccak1600_avx2$9:
cmpq %rdx, %rsi
jb L_keccak1600_avx2$10
addq %rcx, %rdi
subq %rcx, %r9
L_keccak1600_avx2$7:
cmpq %rcx, %r9
jnbe L_keccak1600_avx2$8
leaq glob_data + 384(%rip), %rcx
movq $0, %rdx
leaq glob_data + 192(%rip), %rsi
leaq glob_data + 0(%rip), %r8
movq $24, %r11
L_keccak1600_avx2$6:
vpshufd $78, %ymm4, %ymm8
vpxor %ymm0, %ymm1, %ymm7
vpxor %ymm2, %ymm5, %ymm9
vpxor %ymm3, %ymm7, %ymm7
vpxor %ymm9, %ymm7, %ymm10
vpermq $-109, %ymm10, %ymm7
vpxor %ymm4, %ymm8, %ymm8
vpermq $78, %ymm8, %ymm9
vpsrlq $63, %ymm10, %ymm11
vpaddq %ymm10, %ymm10, %ymm10
vpor %ymm10, %ymm11, %ymm11
vpermq $57, %ymm11, %ymm10
vpxor %ymm7, %ymm11, %ymm11
vpermq $0, %ymm11, %ymm11
vpxor %ymm6, %ymm8, %ymm8
vpxor %ymm9, %ymm8, %ymm8
vpsrlq $63, %ymm8, %ymm9
vpaddq %ymm8, %ymm8, %ymm12
vpor %ymm9, %ymm12, %ymm9
vpxor %ymm11, %ymm4, %ymm4
vpxor %ymm11, %ymm6, %ymm6
vpblendd $-64, %ymm9, %ymm10, %ymm9
vpblendd $3, %ymm8, %ymm7, %ymm7
vpxor %ymm7, %ymm9, %ymm9
vpsllvq (%rsi), %ymm4, %ymm7
vpsrlvq (%r8), %ymm4, %ymm4
vpor %ymm7, %ymm4, %ymm4
vpxor %ymm9, %ymm0, %ymm0
vpsllvq 64(%rsi), %ymm0, %ymm7
vpsrlvq 64(%r8), %ymm0, %ymm0
vpor %ymm7, %ymm0, %ymm0
vpxor %ymm9, %ymm5, %ymm5
vpsllvq 96(%rsi), %ymm5, %ymm7
vpsrlvq 96(%r8), %ymm5, %ymm5
vpor %ymm7, %ymm5, %ymm10
vpxor %ymm9, %ymm1, %ymm1
vpsllvq 128(%rsi), %ymm1, %ymm5
vpsrlvq 128(%r8), %ymm1, %ymm1
vpor %ymm5, %ymm1, %ymm1
vpxor %ymm9, %ymm2, %ymm2
vpermq $-115, %ymm4, %ymm5
vpermq $-115, %ymm0, %ymm7
vpsllvq 160(%rsi), %ymm2, %ymm0
vpsrlvq 160(%r8), %ymm2, %ymm2
vpor %ymm0, %ymm2, %ymm8
vpxor %ymm9, %ymm3, %ymm0
vpermq $27, %ymm10, %ymm3
vpermq $114, %ymm1, %ymm9
vpsllvq 32(%rsi), %ymm0, %ymm1
vpsrlvq 32(%r8), %ymm0, %ymm0
vpor %ymm1, %ymm0, %ymm10
vpsrldq $8, %ymm8, %ymm0
vpandn %ymm0, %ymm8, %ymm0
vpblendd $12, %ymm9, %ymm10, %ymm1
vpblendd $12, %ymm10, %ymm7, %ymm2
vpblendd $12, %ymm7, %ymm5, %ymm4
vpblendd $12, %ymm5, %ymm10, %ymm11
vpblendd $48, %ymm7, %ymm1, %ymm1
vpblendd $48, %ymm3, %ymm2, %ymm2
vpblendd $48, %ymm10, %ymm4, %ymm4
vpblendd $48, %ymm9, %ymm11, %ymm11
vpblendd $-64, %ymm3, %ymm1, %ymm1
vpblendd $-64, %ymm9, %ymm2, %ymm2
vpblendd $-64, %ymm9, %ymm4, %ymm4
vpblendd $-64, %ymm7, %ymm11, %ymm11
vpandn %ymm2, %ymm1, %ymm1
vpandn %ymm11, %ymm4, %ymm2
vpblendd $12, %ymm10, %ymm3, %ymm4
vpblendd $12, %ymm3, %ymm5, %ymm11
vpxor %ymm5, %ymm1, %ymm1
vpblendd $48, %ymm5, %ymm4, %ymm4
vpblendd $48, %ymm7, %ymm11, %ymm11
vpxor %ymm3, %ymm2, %ymm2
vpblendd $-64, %ymm7, %ymm4, %ymm4
vpblendd $-64, %ymm10, %ymm11, %ymm11
vpandn %ymm11, %ymm4, %ymm4
vpxor %ymm9, %ymm4, %ymm12
vpermq $30, %ymm8, %ymm4
vpblendd $48, %ymm6, %ymm4, %ymm4
vpermq $57, %ymm8, %ymm11
vpblendd $-64, %ymm6, %ymm11, %ymm11
vpandn %ymm4, %ymm11, %ymm11
vpblendd $12, %ymm3, %ymm7, %ymm4
vpblendd $12, %ymm7, %ymm9, %ymm13
vpblendd $48, %ymm9, %ymm4, %ymm4
vpblendd $48, %ymm5, %ymm13, %ymm13
vpblendd $-64, %ymm5, %ymm4, %ymm4
vpblendd $-64, %ymm3, %ymm13, %ymm13
vpandn %ymm13, %ymm4, %ymm4
vpxor %ymm10, %ymm4, %ymm4
vpermq $0, %ymm0, %ymm13
vpermq $27, %ymm1, %ymm0
vpermq $-115, %ymm2, %ymm1
vpermq $114, %ymm12, %ymm2
vpblendd $12, %ymm5, %ymm9, %ymm12
vpblendd $12, %ymm9, %ymm3, %ymm9
vpblendd $48, %ymm3, %ymm12, %ymm3
vpblendd $48, %ymm10, %ymm9, %ymm9
vpblendd $-64, %ymm10, %ymm3, %ymm3
vpblendd $-64, %ymm5, %ymm9, %ymm5
vpandn %ymm5, %ymm3, %ymm5
vpxor %ymm13, %ymm6, %ymm6
vpxor %ymm8, %ymm11, %ymm3
vpxor %ymm7, %ymm5, %ymm5
vpxor (%rcx,%rdx), %ymm6, %ymm6
addq $32, %rdx
decq %r11
jne L_keccak1600_avx2$6
vmovdqu %ymm6, (%rsp)
vmovdqu %ymm3, 32(%rsp)
vmovdqu %ymm4, 64(%rsp)
vmovdqu %ymm0, 96(%rsp)
vmovdqu %ymm5, 128(%rsp)
vmovdqu %ymm1, 160(%rsp)
vmovdqu %ymm2, 192(%rsp)
movq %r9, %rcx
shrq $3, %rcx
movq $0, %rdx
jmp L_keccak1600_avx2$4
L_keccak1600_avx2$5:
movq (%rax,%rdx,8), %rsi
movq (%rsp,%rsi,8), %rsi
movq %rsi, (%rdi,%rdx,8)
incq %rdx
L_keccak1600_avx2$4:
cmpq %rcx, %rdx
jb L_keccak1600_avx2$5
movq (%rax,%rdx,8), %rax
shlq $3, %rdx
shlq $3, %rax
jmp L_keccak1600_avx2$2
L_keccak1600_avx2$3:
movb (%rsp,%rax), %cl
movb %cl, (%rdi,%rdx)
incq %rdx
incq %rax
L_keccak1600_avx2$2:
cmpq %r9, %rdx
jb L_keccak1600_avx2$3
jmp *%r10
.data
.p2align 5
_glob_data:
glob_data:
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 46
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 63
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 37
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 58
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 54
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 49
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 50
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 36
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 41
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 62
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 28
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 45
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 56
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 39
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 61
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 55
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 2
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 44
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 43
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 4
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 6
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 7
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 24
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 13
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 18
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 23
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 16
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 25
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 22
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 15
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 11
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 12
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 21
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 26
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 19
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 20
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 17
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 14
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 27
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
verdict-x509/verdict
| 6,042
|
deps/libcrux/sys/libjade/jazz/poly1305_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_ref_verify
.globl jade_onetimeauth_poly1305_amd64_ref_verify
.globl _jade_onetimeauth_poly1305_amd64_ref
.globl jade_onetimeauth_poly1305_amd64_ref
_jade_onetimeauth_poly1305_amd64_ref_verify:
jade_onetimeauth_poly1305_amd64_ref_verify:
movq %rsp, %rax
leaq -56(%rsp), %rsp
andq $-8, %rsp
movq %rax, 48(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq %r15, 40(%rsp)
movq %rdx, %r11
movq %rcx, %r8
movq $0, %r15
movq $0, %rbp
movq $0, %r12
movq (%r8), %r9
movq 8(%r8), %r14
movq $1152921487695413247, %rax
andq %rax, %r9
movq $1152921487695413244, %rax
andq %rax, %r14
movq %r14, %r13
shrq $2, %r13
addq %r14, %r13
addq $16, %r8
jmp Ljade_onetimeauth_poly1305_amd64_ref_verify$2
Ljade_onetimeauth_poly1305_amd64_ref_verify$3:
addq (%rsi), %r15
adcq 8(%rsi), %rbp
adcq $1, %r12
movq %r13, %rcx
imulq %r12, %rcx
imulq %r9, %r12
movq %r9, %rax
mulq %r15
movq %rax, %rbx
movq %rdx, %r10
movq %r9, %rax
mulq %rbp
addq %rax, %r10
adcq %rdx, %r12
movq %r13, %rax
mulq %rbp
movq %rdx, %rbp
addq %rcx, %rbp
movq %rax, %rcx
movq %r14, %rax
mulq %r15
addq %rcx, %rbx
adcq %rax, %r10
adcq %rdx, %r12
movq $-4, %r15
movq %r12, %rax
shrq $2, %rax
andq %r12, %r15
addq %rax, %r15
andq $3, %r12
addq %rbx, %r15
adcq %r10, %rbp
adcq $0, %r12
addq $16, %rsi
addq $-16, %r11
Ljade_onetimeauth_poly1305_amd64_ref_verify$2:
cmpq $16, %r11
jnb Ljade_onetimeauth_poly1305_amd64_ref_verify$3
cmpq $0, %r11
jbe Ljade_onetimeauth_poly1305_amd64_ref_verify$1
xorq %rcx, %rcx
movq %r11, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r11
movq %r11, %rdx
xorq $1, %rdx
movq %r11, %r10
addq $-1, %r10
movq %rax, %rbx
andq %r10, %rbx
xorq %rbx, %rcx
xorq %rbx, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r11
movq %rdx, %rax
movq %r11, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r11, %rax
addq %r10, %r15
adcq %rax, %rbp
adcq $0, %r12
movq %r13, %rsi
imulq %r12, %rsi
imulq %r9, %r12
movq %r9, %rax
mulq %r15
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %rbp
addq %rax, %r10
adcq %rdx, %r12
movq %r13, %rax
mulq %rbp
movq %rdx, %rbp
addq %rsi, %rbp
movq %rax, %rsi
movq %r14, %rax
mulq %r15
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r12
movq $-4, %r15
movq %r12, %rax
shrq $2, %rax
andq %r12, %r15
addq %rax, %r15
andq $3, %r12
addq %rcx, %r15
adcq %r10, %rbp
adcq $0, %r12
Ljade_onetimeauth_poly1305_amd64_ref_verify$1:
movq %r15, %rax
movq %rbp, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r12
shrq $2, %r12
negq %r12
xorq %r15, %rax
xorq %rbp, %rcx
andq %r12, %rax
andq %r12, %rcx
xorq %r15, %rax
xorq %rbp, %rcx
movq (%r8), %rdx
movq 8(%r8), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %r15
movq 48(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_ref:
jade_onetimeauth_poly1305_amd64_ref:
movq %rsp, %rax
leaq -56(%rsp), %rsp
andq $-8, %rsp
movq %rax, 48(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq %r15, 40(%rsp)
movq %rdx, %rbx
movq %rcx, %r9
movq $0, %r15
movq $0, %r8
movq $0, %r14
movq (%r9), %r12
movq 8(%r9), %r13
movq $1152921487695413247, %rax
andq %rax, %r12
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %rbp
shrq $2, %rbp
addq %r13, %rbp
addq $16, %r9
jmp Ljade_onetimeauth_poly1305_amd64_ref$2
Ljade_onetimeauth_poly1305_amd64_ref$3:
addq (%rsi), %r15
adcq 8(%rsi), %r8
adcq $1, %r14
movq %rbp, %rcx
imulq %r14, %rcx
imulq %r12, %r14
movq %r12, %rax
mulq %r15
movq %rax, %r11
movq %rdx, %r10
movq %r12, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %r14
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rcx, %r8
movq %rax, %rcx
movq %r13, %rax
mulq %r15
addq %rcx, %r11
adcq %rax, %r10
adcq %rdx, %r14
movq $-4, %r15
movq %r14, %rax
shrq $2, %rax
andq %r14, %r15
addq %rax, %r15
andq $3, %r14
addq %r11, %r15
adcq %r10, %r8
adcq $0, %r14
addq $16, %rsi
addq $-16, %rbx
Ljade_onetimeauth_poly1305_amd64_ref$2:
cmpq $16, %rbx
jnb Ljade_onetimeauth_poly1305_amd64_ref$3
cmpq $0, %rbx
jbe Ljade_onetimeauth_poly1305_amd64_ref$1
xorq %rcx, %rcx
movq %rbx, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %rbx
movq %rbx, %rdx
xorq $1, %rdx
movq %rbx, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %rbx
movq %rdx, %rax
movq %rbx, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %rbx, %rax
addq %r10, %r15
adcq %rax, %r8
adcq $0, %r14
movq %rbp, %rsi
imulq %r14, %rsi
imulq %r12, %r14
movq %r12, %rax
mulq %r15
movq %rax, %rcx
movq %rdx, %r10
movq %r12, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %r14
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r13, %rax
mulq %r15
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r14
movq $-4, %r15
movq %r14, %rax
shrq $2, %rax
andq %r14, %r15
addq %rax, %r15
andq $3, %r14
addq %rcx, %r15
adcq %r10, %r8
adcq $0, %r14
Ljade_onetimeauth_poly1305_amd64_ref$1:
movq %r15, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r14
shrq $2, %r14
negq %r14
xorq %r15, %rax
xorq %r8, %rcx
andq %r14, %rax
andq %r14, %rcx
xorq %r15, %rax
xorq %r8, %rcx
movq (%r9), %rdx
movq 8(%r9), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %r15
movq 48(%rsp), %rsp
ret
|
verdict-x509/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_256_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_256_amd64_ref
.globl jade_hash_sha3_256_amd64_ref
_jade_hash_sha3_256_amd64_ref:
jade_hash_sha3_256_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $32, %rcx
movb $6, %r8b
movq $136, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_256_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
verdict-x509/verdict
| 85,265
|
deps/libcrux/sys/libjade/jazz/x25519_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_scalarmult_curve25519_amd64_ref5_base
.globl jade_scalarmult_curve25519_amd64_ref5_base
.globl _jade_scalarmult_curve25519_amd64_ref5
.globl jade_scalarmult_curve25519_amd64_ref5
_jade_scalarmult_curve25519_amd64_ref5_base:
jade_scalarmult_curve25519_amd64_ref5_base:
movq %rsp, %rax
leaq -480(%rsp), %rsp
andq $-8, %rsp
movq %rax, 472(%rsp)
movq %rbx, 432(%rsp)
movq %rbp, 440(%rsp)
movq %r12, 448(%rsp)
movq %r13, 456(%rsp)
movq %r14, 464(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 40(%rsp)
movq 8(%rsi), %rax
movq %rax, 48(%rsp)
movq 16(%rsi), %rax
movq %rax, 56(%rsp)
movq 24(%rsi), %rax
movq %rax, 64(%rsp)
andb $-8, 40(%rsp)
andb $127, 71(%rsp)
orb $64, 71(%rsp)
movq $9, %rcx
movq $0, %r8
movq $0, %r9
movq $0, %r10
movq $0, %r11
xorq %rbx, %rbx
movq $1, 72(%rsp)
movq $0, %rbp
movq %rcx, 112(%rsp)
movq %r8, 120(%rsp)
movq %r9, 128(%rsp)
movq %r10, 136(%rsp)
movq %r11, 144(%rsp)
movq $1, 152(%rsp)
movq %rbx, 80(%rsp)
movq %rbx, %rax
movq %rbx, 160(%rsp)
movq %rbx, 88(%rsp)
movq %rbx, %rdx
movq %rbx, 168(%rsp)
movq %rbx, 96(%rsp)
movq %rbx, %rsi
movq %rbx, 176(%rsp)
movq %rbx, 104(%rsp)
movq %rbx, %rdi
movq %rbx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %r8, 200(%rsp)
movq %r9, 208(%rsp)
movq %r10, 216(%rsp)
movq %r11, 224(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_ref5_base$28:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %r8
shrq $3, %r8
movzbq 40(%rsp,%r8), %r8
andq $7, %rcx
shrq %cl, %r8
andq $1, %r8
movq 8(%rsp), %r9
xorq %r8, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq %rbp, %r11
movq %rax, %rbx
movq %rdx, %r12
movq %rsi, %r9
movq %rdi, %r10
xorq 152(%rsp), %r11
andq %rcx, %r11
xorq 160(%rsp), %rbx
andq %rcx, %rbx
xorq 168(%rsp), %r12
andq %rcx, %r12
xorq 176(%rsp), %r9
andq %rcx, %r9
xorq 184(%rsp), %r10
andq %rcx, %r10
xorq %r11, %rbp
movq 152(%rsp), %r13
xorq %r11, %r13
movq %r13, 152(%rsp)
xorq %rbx, %rax
movq 160(%rsp), %r11
xorq %rbx, %r11
movq %r11, 160(%rsp)
xorq %r12, %rdx
movq 168(%rsp), %r11
xorq %r12, %r11
movq %r11, 168(%rsp)
xorq %r9, %rsi
movq 176(%rsp), %r11
xorq %r9, %r11
movq %r11, 176(%rsp)
xorq %r10, %rdi
movq 184(%rsp), %r9
xorq %r10, %r9
movq %r9, 184(%rsp)
movq 112(%rsp), %r12
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbx
movq 72(%rsp), %r13
movq %r12, %r14
xorq %r13, %r14
andq %rcx, %r14
xorq %r14, %r13
xorq %r14, %r12
movq %r13, 72(%rsp)
movq %r12, 112(%rsp)
movq 80(%rsp), %r12
movq %r9, %r13
xorq %r12, %r13
andq %rcx, %r13
xorq %r13, %r12
xorq %r13, %r9
movq %r12, 80(%rsp)
movq %r9, 120(%rsp)
movq 88(%rsp), %r9
movq %r10, %r12
xorq %r9, %r12
andq %rcx, %r12
xorq %r12, %r9
xorq %r12, %r10
movq %r9, 88(%rsp)
movq %r10, 128(%rsp)
movq 96(%rsp), %r9
movq %r11, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %r11
movq %r9, 96(%rsp)
movq %r11, 136(%rsp)
movq 104(%rsp), %r9
movq %rbx, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %rbx
movq %r9, 104(%rsp)
movq %rbx, 144(%rsp)
movq %r8, 8(%rsp)
movq $4503599627370458, %rcx
movq $4503599627370494, %r8
movq 72(%rsp), %r9
movq 80(%rsp), %r10
movq 88(%rsp), %r11
movq 96(%rsp), %rbx
movq 104(%rsp), %r12
addq %rcx, %r9
addq %r8, %r10
addq %r8, %r11
addq %r8, %rbx
addq %r8, %r12
subq %rbp, %r9
subq %rax, %r10
subq %rdx, %r11
subq %rsi, %rbx
subq %rdi, %r12
movq %r9, 232(%rsp)
movq %r10, 240(%rsp)
movq %r11, 248(%rsp)
movq %rbx, 256(%rsp)
movq %r12, 264(%rsp)
addq 72(%rsp), %rbp
addq 80(%rsp), %rax
addq 88(%rsp), %rdx
addq 96(%rsp), %rsi
addq 104(%rsp), %rdi
movq %rbp, 272(%rsp)
movq %rax, 280(%rsp)
movq %rdx, 288(%rsp)
movq %rsi, 296(%rsp)
movq %rdi, 304(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 152(%rsp), %rax
subq 160(%rsp), %rcx
subq 168(%rsp), %rdx
subq 176(%rsp), %rsi
subq 184(%rsp), %rdi
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq %rdi, 344(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
addq 152(%rsp), %rax
addq 160(%rsp), %rcx
addq 168(%rsp), %rdx
addq 176(%rsp), %rsi
addq 184(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 328(%rsp)
movq %rax, %r12
movq %rdx, %rdi
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 320(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 272(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 272(%rsp), %rax
mulq 320(%rsp)
movq %rax, %r10
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 328(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 272(%rsp), %rax
mulq 336(%rsp)
movq %rax, %rcx
movq %rdx, %r11
movq 272(%rsp), %rax
mulq 344(%rsp)
movq %rax, %rbp
movq %rdx, %rsi
movq 280(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 280(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 280(%rsp), %rax
mulq 336(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 288(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 288(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 288(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 336(%rsp)
addq %rax, %r12
adcq %rdx, %rdi
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq 296(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 24(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 344(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 304(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rbp
adcq %rdx, %rsi
movq 32(%rsp), %rax
mulq 328(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 344(%rsp)
addq %rax, %rcx
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %r12, %rdi
andq %rax, %r12
shldq $13, %r10, %rbx
andq %rax, %r10
addq %rdi, %r10
shldq $13, %r8, %r9
andq %rax, %r8
addq %rbx, %r8
shldq $13, %rcx, %r11
andq %rax, %rcx
addq %r9, %rcx
shldq $13, %rbp, %rsi
andq %rax, %rbp
addq %r11, %rbp
imulq $19, %rsi, %rdx
addq %rdx, %r12
movq %r12, %rdx
shrq $51, %rdx
addq %r10, %rdx
movq %rdx, %rsi
shrq $51, %rdx
andq %rax, %r12
addq %r8, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %rdi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rcx
imulq $19, %rdx, %rdx
addq %rdx, %r12
andq %rax, %r8
movq %r12, 312(%rsp)
movq %rsi, 320(%rsp)
movq %rdi, 328(%rsp)
movq %rcx, 336(%rsp)
movq %r8, 344(%rsp)
movq 376(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 248(%rsp)
movq %rax, %rsi
movq %rdx, %rbx
movq 384(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 352(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 352(%rsp), %rax
mulq 240(%rsp)
movq %rax, %r10
movq %rdx, %r11
movq 352(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rcx
movq %rdx, %rdi
movq 352(%rsp), %rax
mulq 256(%rsp)
movq %rax, %rbp
movq %rdx, %r8
movq 352(%rsp), %rax
mulq 264(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 360(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 360(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 360(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 360(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 360(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 368(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 368(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 376(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 376(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 384(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r10
adcq %rdx, %r11
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %rsi, %rbx
andq %rax, %rsi
shldq $13, %r10, %r11
andq %rax, %r10
addq %rbx, %r10
shldq $13, %rcx, %rdi
andq %rax, %rcx
addq %r11, %rcx
shldq $13, %rbp, %r8
andq %rax, %rbp
addq %rdi, %rbp
shldq $13, %r9, %r12
andq %rax, %r9
addq %r8, %r9
imulq $19, %r12, %rdx
addq %rdx, %rsi
movq %rsi, %rdx
shrq $51, %rdx
addq %r10, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %rdi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rcx
addq %r9, %rdx
movq %rdx, %r9
shrq $51, %rdx
andq %rax, %r8
imulq $19, %rdx, %rdx
addq %rdx, %rsi
andq %rax, %r9
movq %rsi, 352(%rsp)
movq %rdi, 360(%rsp)
movq %rcx, 368(%rsp)
movq %r8, 376(%rsp)
movq %r9, 384(%rsp)
movq 272(%rsp), %rax
mulq 272(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 272(%rsp), %rax
shlq $1, %rax
mulq 280(%rsp)
movq %rax, %rbx
movq %rdx, %r8
movq 272(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 272(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
movq %rax, %rdi
movq %rdx, %r11
movq 272(%rsp), %rax
shlq $1, %rax
mulq 304(%rsp)
movq %rax, %r10
movq %rdx, %rbp
movq 280(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 280(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 280(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 280(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 288(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 296(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 296(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 296(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 304(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %rcx, %rsi
andq %rax, %rcx
shldq $13, %rbx, %r8
andq %rax, %rbx
addq %rsi, %rbx
shldq $13, %r12, %r9
andq %rax, %r12
addq %r8, %r12
shldq $13, %rdi, %r11
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %r10, %rbp
andq %rax, %r10
addq %r11, %r10
imulq $19, %rbp, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rsi
movq %rdx, %r8
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %r8
movq %rdx, %rdi
shrq $51, %rdx
addq %r10, %rdx
andq %rax, %rdi
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 272(%rsp)
movq %rsi, 280(%rsp)
movq %r8, 288(%rsp)
movq %rdi, 296(%rsp)
movq %r9, 304(%rsp)
movq 232(%rsp), %rax
mulq 232(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 232(%rsp), %rax
shlq $1, %rax
mulq 240(%rsp)
movq %rax, %r9
movq %rdx, %rbp
movq 232(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %rbx
movq 232(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
movq %rax, %rcx
movq %rdx, %r10
movq 232(%rsp), %rax
shlq $1, %rax
mulq 264(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 240(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 240(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
addq %rax, %rcx
adcq %rdx, %r10
movq 240(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 240(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 248(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %r9
adcq %rdx, %rbp
movq 256(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %rbp
movq 256(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 264(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %r10
movq $2251799813685247, %rax
shldq $13, %r8, %r11
andq %rax, %r8
shldq $13, %r9, %rbp
andq %rax, %r9
addq %r11, %r9
shldq $13, %rdi, %rbx
andq %rax, %rdi
addq %rbp, %rdi
shldq $13, %rcx, %r10
andq %rax, %rcx
addq %rbx, %rcx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %r10, %r12
imulq $19, %rsi, %rdx
addq %rdx, %r8
movq %r8, %rdx
shrq $51, %rdx
addq %r9, %rdx
andq %rax, %r8
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %rdi
movq %rdx, %rcx
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rcx
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r8
andq %rax, %r9
movq %r8, 232(%rsp)
movq %rsi, 240(%rsp)
movq %rdi, 248(%rsp)
movq %rcx, 256(%rsp)
movq %r9, 264(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
addq 352(%rsp), %rax
addq 360(%rsp), %rcx
addq 368(%rsp), %rdx
addq 376(%rsp), %rsi
addq 384(%rsp), %rdi
movq %rax, 392(%rsp)
movq %rcx, 400(%rsp)
movq %rdx, 408(%rsp)
movq %rsi, 416(%rsp)
movq %rdi, 424(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 352(%rsp), %rax
subq 360(%rsp), %rcx
subq 368(%rsp), %rdx
subq 376(%rsp), %rsi
subq 384(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 248(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 240(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 272(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 272(%rsp), %rax
mulq 240(%rsp)
movq %rax, %rcx
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 248(%rsp)
movq %rax, %r8
movq %rdx, %rdi
movq 272(%rsp), %rax
mulq 256(%rsp)
movq %rax, %r11
movq %rdx, %rsi
movq 272(%rsp), %rax
mulq 264(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 280(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 280(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 280(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 288(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 288(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 288(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 296(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 304(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rcx
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %rdi
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq $2251799813685247, %rax
shldq $13, %r9, %r12
andq %rax, %r9
shldq $13, %rcx, %rbx
andq %rax, %rcx
addq %r12, %rcx
shldq $13, %r8, %rdi
andq %rax, %r8
addq %rbx, %r8
shldq $13, %r11, %rsi
andq %rax, %r11
addq %rdi, %r11
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rsi, %rbp
imulq $19, %r10, %rdx
addq %rdx, %r9
movq %r9, %rdx
shrq $51, %rdx
addq %rcx, %rdx
movq %rdx, %rcx
shrq $51, %rdx
andq %rax, %r9
addq %r8, %rdx
movq %rdx, %rsi
shrq $51, %rdx
andq %rax, %rcx
addq %r11, %rdx
movq %rdx, %rdi
shrq $51, %rdx
andq %rax, %rsi
addq %rbp, %rdx
movq %rdx, %r8
shrq $51, %rdx
andq %rax, %rdi
imulq $19, %rdx, %rdx
addq %rdx, %r9
andq %rax, %r8
movq %r9, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rsi, 88(%rsp)
movq %rdi, 96(%rsp)
movq %r8, 104(%rsp)
movq 272(%rsp), %rax
movq 280(%rsp), %rcx
movq 288(%rsp), %rdx
movq 296(%rsp), %rsi
movq 304(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 232(%rsp), %rax
subq 240(%rsp), %rcx
subq 248(%rsp), %rdx
subq 256(%rsp), %rsi
subq 264(%rsp), %rdi
movq %rax, 232(%rsp)
movq %rcx, 240(%rsp)
movq %rdx, 248(%rsp)
movq %rsi, 256(%rsp)
movq %rdi, 264(%rsp)
movq 352(%rsp), %rax
mulq 352(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 352(%rsp), %rax
shlq $1, %rax
mulq 360(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 352(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
movq %rax, %r8
movq %rdx, %r12
movq 352(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 352(%rsp), %rax
shlq $1, %rax
mulq 384(%rsp)
movq %rax, %rdi
movq %rdx, %r9
movq 360(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r12
movq 360(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 360(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
addq %rax, %rdi
adcq %rdx, %r9
movq 360(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 368(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rdi
adcq %rdx, %r9
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 376(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 376(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 376(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r8
adcq %rdx, %r12
movq 384(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq $2251799813685247, %rax
shldq $13, %r11, %rbx
andq %rax, %r11
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rbx, %rbp
shldq $13, %r8, %r12
andq %rax, %r8
addq %r10, %r8
shldq $13, %rcx, %rsi
andq %rax, %rcx
addq %r12, %rcx
shldq $13, %rdi, %r9
andq %rax, %rdi
addq %rsi, %rdi
imulq $19, %r9, %rdx
addq %rdx, %r11
movq %r11, %rdx
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %r11
movq %rdx, %rsi
shrq $51, %rdx
addq %r8, %rdx
andq %rax, %rsi
movq %rdx, %r8
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %r8
movq %rdx, %rcx
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rcx
movq %rdx, %rdi
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r11
andq %rax, %rdi
movq %r11, 352(%rsp)
movq %rsi, 360(%rsp)
movq %r8, 368(%rsp)
movq %rcx, 376(%rsp)
movq %rdi, 384(%rsp)
movq $996679680, %rcx
movq 232(%rsp), %rax
mulq %rcx
shrq $13, %rax
movq %rax, %rsi
movq %rdx, %rdi
movq 240(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %rdi
movq %rdx, %r8
movq 248(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r8
movq %rdx, %r9
movq 256(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r9
movq %rdx, %r10
movq 264(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r10
imulq $19, %rdx, %rax
addq %rax, %rsi
addq 272(%rsp), %rsi
addq 280(%rsp), %rdi
addq 288(%rsp), %r8
addq 296(%rsp), %r9
addq 304(%rsp), %r10
movq %rsi, 272(%rsp)
movq %rdi, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
movq 392(%rsp), %rax
mulq 392(%rsp)
movq %rax, %rbx
movq %rdx, %r8
movq 392(%rsp), %rax
shlq $1, %rax
mulq 400(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 392(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 392(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
movq %rax, %rbp
movq %rdx, %r11
movq 392(%rsp), %rax
shlq $1, %rax
mulq 424(%rsp)
movq %rax, %r10
movq %rdx, %r9
movq 400(%rsp), %rax
mulq 400(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 400(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
addq %rax, %rbp
adcq %rdx, %r11
movq 400(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 400(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 408(%rsp), %rax
mulq 408(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 416(%rsp)
addq %rax, %rbx
adcq %rdx, %r8
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 416(%rsp), %rax
imulq $19, %rax, %rax
mulq 416(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 416(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 424(%rsp), %rax
imulq $19, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbp
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %rbx, %r8
andq %rax, %rbx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %r8, %r12
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %rsi, %rdi
shldq $13, %rbp, %r11
andq %rax, %rbp
addq %rcx, %rbp
shldq $13, %r10, %r9
andq %rax, %r10
addq %r11, %r10
imulq $19, %r9, %rcx
addq %rcx, %rbx
movq %rbx, %rcx
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %rbx
movq %rcx, %rdx
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %rdx
movq %rcx, %rsi
shrq $51, %rcx
addq %rbp, %rcx
andq %rax, %rsi
movq %rcx, %rdi
shrq $51, %rcx
addq %r10, %rcx
andq %rax, %rdi
movq %rcx, %r8
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %rbx
andq %rax, %r8
movq %rbx, 112(%rsp)
movq %rdx, 120(%rsp)
movq %rsi, 128(%rsp)
movq %rdi, 136(%rsp)
movq %r8, 144(%rsp)
movq 216(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 368(%rsp)
movq %rax, %rdi
movq %rdx, %rsi
movq 224(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 360(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 192(%rsp), %rax
mulq 368(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 192(%rsp), %rax
mulq 376(%rsp)
movq %rax, %r12
movq %rdx, %rcx
movq 192(%rsp), %rax
mulq 384(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 200(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 200(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 200(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 200(%rsp), %rax
mulq 376(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 200(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 208(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 208(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 208(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %rdi
adcq %rdx, %rsi
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 216(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq 216(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 384(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 224(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 24(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 384(%rsp)
addq %rax, %r12
adcq %rdx, %rcx
movq $2251799813685247, %rax
shldq $13, %rdi, %rsi
andq %rax, %rdi
shldq $13, %r11, %rbx
andq %rax, %r11
addq %rsi, %r11
shldq $13, %r8, %r9
andq %rax, %r8
addq %rbx, %r8
shldq $13, %r12, %rcx
andq %rax, %r12
addq %r9, %r12
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rcx, %rbp
imulq $19, %r10, %rcx
addq %rcx, %rdi
movq %rdi, %rcx
shrq $51, %rcx
addq %r11, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %rdi
addq %r8, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %r12, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rsi
addq %rbp, %rcx
movq %rcx, %r9
shrq $51, %rcx
andq %rax, %r8
imulq $19, %rcx, %rcx
addq %rcx, %rdi
andq %rax, %r9
movq %rdi, 152(%rsp)
movq %rdx, 160(%rsp)
movq %rsi, 168(%rsp)
movq %r8, 176(%rsp)
movq %r9, 184(%rsp)
movq 256(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 288(%rsp)
movq %rax, %rbp
movq %rdx, %rdi
movq 264(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 280(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 232(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 232(%rsp), %rax
mulq 280(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 232(%rsp), %rax
mulq 288(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 232(%rsp), %rax
mulq 296(%rsp)
movq %rax, %r11
movq %rdx, %r8
movq 232(%rsp), %rax
mulq 304(%rsp)
movq %rax, %rcx
movq %rdx, %r9
movq 240(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 240(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 240(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 240(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 240(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 248(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 248(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 248(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 256(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq 256(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 304(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 264(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rcx
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 32(%rsp), %rax
mulq 296(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 32(%rsp), %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %r8
movq $2251799813685247, %r13
shldq $13, %rbp, %rdi
andq %r13, %rbp
shldq $13, %rbx, %r12
andq %r13, %rbx
addq %rdi, %rbx
shldq $13, %rsi, %r10
andq %r13, %rsi
addq %r12, %rsi
shldq $13, %r11, %r8
andq %r13, %r11
addq %r10, %r11
shldq $13, %rcx, %r9
andq %r13, %rcx
addq %r8, %rcx
imulq $19, %r9, %rax
addq %rax, %rbp
movq %rbp, %r8
shrq $51, %r8
addq %rbx, %r8
movq %r8, %rax
shrq $51, %r8
andq %r13, %rbp
addq %rsi, %r8
movq %r8, %rdx
shrq $51, %r8
andq %r13, %rax
addq %r11, %r8
movq %r8, %rsi
shrq $51, %r8
andq %r13, %rdx
addq %rcx, %r8
movq %r8, %rdi
shrq $51, %r8
andq %r13, %rsi
imulq $19, %r8, %rcx
addq %rcx, %rbp
andq %r13, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$28
movq %rbp, 152(%rsp)
movq %rax, 160(%rsp)
movq %rdx, 168(%rsp)
movq %rsi, 176(%rsp)
movq %rdi, 184(%rsp)
movq 152(%rsp), %rax
movq %rax, 112(%rsp)
movq 160(%rsp), %rax
movq %rax, 120(%rsp)
movq 168(%rsp), %rax
movq %rax, 128(%rsp)
movq 176(%rsp), %rax
movq %rax, 136(%rsp)
movq 184(%rsp), %rax
movq %rax, 144(%rsp)
leaq 112(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$27(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$27:
leaq 8(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 192(%rsp)
movq 120(%rsp), %rax
movq %rax, 200(%rsp)
movq 128(%rsp), %rax
movq %rax, 208(%rsp)
movq 136(%rsp), %rax
movq %rax, 216(%rsp)
movq 144(%rsp), %rax
movq %rax, 224(%rsp)
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$26(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$26:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$25(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$25:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$24(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$24:
leaq 24(%rsp), %rsp
leaq 112(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$23(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$23:
leaq 24(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 152(%rsp)
movq 120(%rsp), %rax
movq %rax, 160(%rsp)
movq 128(%rsp), %rax
movq %rax, 168(%rsp)
movq 136(%rsp), %rax
movq %rax, 176(%rsp)
movq 144(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$22(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$22:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$21(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$21:
leaq 24(%rsp), %rsp
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$20(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$20:
leaq 8(%rsp), %rsp
movl $4, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$19(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$19:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$18(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$18:
leaq 24(%rsp), %rsp
movl $10, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$17(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$17:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$16(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$16:
leaq 24(%rsp), %rsp
movl $20, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$15(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$15:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$14(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$14:
leaq 24(%rsp), %rsp
movl $10, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$13(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$13:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$12(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$12:
leaq 24(%rsp), %rsp
movl $50, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$11(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$11:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$10(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$10:
leaq 24(%rsp), %rsp
movl $100, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$9(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$9:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$8(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$8:
leaq 24(%rsp), %rsp
movl $50, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$7(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$7:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$6(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$6:
leaq 24(%rsp), %rsp
movl $4, %r13d
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$5(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$5:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$4(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5_base$4:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 112(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5_base$3(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5_base$3:
leaq 24(%rsp), %rsp
movq 96(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 208(%rsp)
movq %rax, %r9
movq %rdx, %r12
movq 104(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 16(%rsp)
mulq 200(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 72(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 72(%rsp), %rax
mulq 200(%rsp)
movq %rax, %r11
movq %rdx, %rdi
movq 72(%rsp), %rax
mulq 208(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 72(%rsp), %rax
mulq 216(%rsp)
movq %rax, %rcx
movq %rdx, %r8
movq 72(%rsp), %rax
mulq 224(%rsp)
movq %rax, %rbx
movq %rdx, %rbp
movq 80(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 80(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 80(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 80(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 80(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 88(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 88(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 88(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 216(%rsp)
addq %rax, %r9
adcq %rdx, %r12
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 96(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 96(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 8(%rsp), %rax
mulq 216(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 8(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 104(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 16(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r11
adcq %rdx, %rdi
movq 16(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 16(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %r9, %r12
andq %rax, %r9
shldq $13, %r11, %rdi
andq %rax, %r11
addq %r12, %r11
shldq $13, %rsi, %r10
andq %rax, %rsi
addq %rdi, %rsi
shldq $13, %rcx, %r8
andq %rax, %rcx
addq %r10, %rcx
shldq $13, %rbx, %rbp
andq %rax, %rbx
addq %r8, %rbx
imulq $19, %rbp, %rdx
addq %rdx, %r9
movq %r9, %r8
shrq $51, %r8
addq %r11, %r8
movq %r8, %rdx
shrq $51, %r8
andq %rax, %r9
addq %rsi, %r8
movq %r8, %rsi
shrq $51, %r8
andq %rax, %rdx
addq %rcx, %r8
movq %r8, %rcx
shrq $51, %r8
andq %rax, %rsi
addq %rbx, %r8
movq %r8, %rdi
shrq $51, %r8
andq %rax, %rcx
imulq $19, %r8, %r8
addq %r8, %r9
andq %rax, %rdi
movq $2251799813685247, %rax
movq %rax, %r8
addq $-18, %r8
movq $3, %r10
jmp Ljade_scalarmult_curve25519_amd64_ref5_base$1
Ljade_scalarmult_curve25519_amd64_ref5_base$2:
movq %r9, %r11
shrq $51, %r11
andq %rax, %r9
addq %r11, %rdx
movq %rdx, %r11
shrq $51, %r11
andq %rax, %rdx
addq %r11, %rsi
movq %rsi, %r11
shrq $51, %r11
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r11
shrq $51, %r11
andq %rax, %rcx
addq %r11, %rdi
movq %rdi, %r11
shrq $51, %r11
andq %rax, %rdi
imulq $19, %r11, %r11
addq %r11, %r9
addq $-1, %r10
Ljade_scalarmult_curve25519_amd64_ref5_base$1:
cmpq $0, %r10
jnbe Ljade_scalarmult_curve25519_amd64_ref5_base$2
movq $1, %r11
cmpq %r8, %r9
cmovl %r10, %r11
cmpq %rax, %rdx
cmovne %r10, %r11
cmpq %rax, %rsi
cmovne %r10, %r11
cmpq %rax, %rcx
cmovne %r10, %r11
cmpq %rax, %rdi
cmovne %r10, %r11
negq %r11
andq %r11, %rax
andq %r11, %r8
subq %r8, %r9
subq %rax, %rdx
subq %rax, %rsi
subq %rax, %rcx
subq %rax, %rdi
movq %rdx, %rax
shlq $51, %rax
orq %r9, %rax
movq %rsi, %r8
shlq $38, %r8
shrq $13, %rdx
orq %rdx, %r8
movq %rcx, %rdx
shlq $25, %rdx
shrq $26, %rsi
orq %rsi, %rdx
shlq $12, %rdi
shrq $39, %rcx
orq %rcx, %rdi
movq (%rsp), %rcx
movq %rax, (%rcx)
movq %r8, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdi, 24(%rcx)
xorq %rax, %rax
movq 432(%rsp), %rbx
movq 440(%rsp), %rbp
movq 448(%rsp), %r12
movq 456(%rsp), %r13
movq 464(%rsp), %r14
movq 472(%rsp), %rsp
ret
_jade_scalarmult_curve25519_amd64_ref5:
jade_scalarmult_curve25519_amd64_ref5:
movq %rsp, %rax
leaq -480(%rsp), %rsp
andq $-8, %rsp
movq %rax, 472(%rsp)
movq %rbx, 432(%rsp)
movq %rbp, 440(%rsp)
movq %r12, 448(%rsp)
movq %r13, 456(%rsp)
movq %r14, 464(%rsp)
movq %rdi, (%rsp)
movq (%rsi), %rax
movq %rax, 40(%rsp)
movq 8(%rsi), %rax
movq %rax, 48(%rsp)
movq 16(%rsi), %rax
movq %rax, 56(%rsp)
movq 24(%rsi), %rax
movq %rax, 64(%rsp)
andb $-8, 40(%rsp)
andb $127, 71(%rsp)
orb $64, 71(%rsp)
movq (%rdx), %rax
movq 8(%rdx), %rsi
movq 16(%rdx), %rdi
movq 24(%rdx), %rdx
movq $2251799813685247, %r9
movq %rax, %rcx
andq %r9, %rcx
movq %rsi, %r8
shlq $13, %r8
shrq $51, %rax
orq %rax, %r8
andq %r9, %r8
movq %rdi, %r10
shlq $26, %r10
shrq $38, %rsi
orq %rsi, %r10
andq %r9, %r10
movq %rdx, %r11
shlq $39, %r11
shrq $25, %rdi
orq %rdi, %r11
andq %r9, %r11
movq %rdx, %rbp
shrq $12, %rbp
andq %r9, %rbp
xorq %r9, %r9
movq $1, 72(%rsp)
movq $0, %rbx
movq %rcx, 112(%rsp)
movq %r8, 120(%rsp)
movq %r10, 128(%rsp)
movq %r11, 136(%rsp)
movq %rbp, 144(%rsp)
movq $1, 152(%rsp)
movq %r9, 80(%rsp)
movq %r9, %rax
movq %r9, 160(%rsp)
movq %r9, 88(%rsp)
movq %r9, %rdx
movq %r9, 168(%rsp)
movq %r9, 96(%rsp)
movq %r9, %rsi
movq %r9, 176(%rsp)
movq %r9, 104(%rsp)
movq %r9, %rdi
movq %r9, 184(%rsp)
movq %rcx, 192(%rsp)
movq %r8, 200(%rsp)
movq %r10, 208(%rsp)
movq %r11, 216(%rsp)
movq %rbp, 224(%rsp)
movq $255, %rcx
movq $0, 8(%rsp)
Ljade_scalarmult_curve25519_amd64_ref5$28:
addq $-1, %rcx
movq %rcx, 16(%rsp)
movq %rcx, %r8
shrq $3, %r8
movzbq 40(%rsp,%r8), %r8
andq $7, %rcx
shrq %cl, %r8
andq $1, %r8
movq 8(%rsp), %r9
xorq %r8, %r9
xorq %rcx, %rcx
subq %r9, %rcx
movq %rbx, %r11
movq %rax, %rbp
movq %rdx, %r12
movq %rsi, %r9
movq %rdi, %r10
xorq 152(%rsp), %r11
andq %rcx, %r11
xorq 160(%rsp), %rbp
andq %rcx, %rbp
xorq 168(%rsp), %r12
andq %rcx, %r12
xorq 176(%rsp), %r9
andq %rcx, %r9
xorq 184(%rsp), %r10
andq %rcx, %r10
xorq %r11, %rbx
movq 152(%rsp), %r13
xorq %r11, %r13
movq %r13, 152(%rsp)
xorq %rbp, %rax
movq 160(%rsp), %r11
xorq %rbp, %r11
movq %r11, 160(%rsp)
xorq %r12, %rdx
movq 168(%rsp), %r11
xorq %r12, %r11
movq %r11, 168(%rsp)
xorq %r9, %rsi
movq 176(%rsp), %r11
xorq %r9, %r11
movq %r11, 176(%rsp)
xorq %r10, %rdi
movq 184(%rsp), %r9
xorq %r10, %r9
movq %r9, 184(%rsp)
movq 112(%rsp), %r12
movq 120(%rsp), %r9
movq 128(%rsp), %r10
movq 136(%rsp), %r11
movq 144(%rsp), %rbp
movq 72(%rsp), %r13
movq %r12, %r14
xorq %r13, %r14
andq %rcx, %r14
xorq %r14, %r13
xorq %r14, %r12
movq %r13, 72(%rsp)
movq %r12, 112(%rsp)
movq 80(%rsp), %r12
movq %r9, %r13
xorq %r12, %r13
andq %rcx, %r13
xorq %r13, %r12
xorq %r13, %r9
movq %r12, 80(%rsp)
movq %r9, 120(%rsp)
movq 88(%rsp), %r9
movq %r10, %r12
xorq %r9, %r12
andq %rcx, %r12
xorq %r12, %r9
xorq %r12, %r10
movq %r9, 88(%rsp)
movq %r10, 128(%rsp)
movq 96(%rsp), %r9
movq %r11, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %r11
movq %r9, 96(%rsp)
movq %r11, 136(%rsp)
movq 104(%rsp), %r9
movq %rbp, %r10
xorq %r9, %r10
andq %rcx, %r10
xorq %r10, %r9
xorq %r10, %rbp
movq %r9, 104(%rsp)
movq %rbp, 144(%rsp)
movq %r8, 8(%rsp)
movq $4503599627370458, %rcx
movq $4503599627370494, %r8
movq 72(%rsp), %r9
movq 80(%rsp), %r10
movq 88(%rsp), %r11
movq 96(%rsp), %rbp
movq 104(%rsp), %r12
addq %rcx, %r9
addq %r8, %r10
addq %r8, %r11
addq %r8, %rbp
addq %r8, %r12
subq %rbx, %r9
subq %rax, %r10
subq %rdx, %r11
subq %rsi, %rbp
subq %rdi, %r12
movq %r9, 232(%rsp)
movq %r10, 240(%rsp)
movq %r11, 248(%rsp)
movq %rbp, 256(%rsp)
movq %r12, 264(%rsp)
addq 72(%rsp), %rbx
addq 80(%rsp), %rax
addq 88(%rsp), %rdx
addq 96(%rsp), %rsi
addq 104(%rsp), %rdi
movq %rbx, 272(%rsp)
movq %rax, 280(%rsp)
movq %rdx, 288(%rsp)
movq %rsi, 296(%rsp)
movq %rdi, 304(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 152(%rsp), %rax
subq 160(%rsp), %rcx
subq 168(%rsp), %rdx
subq 176(%rsp), %rsi
subq 184(%rsp), %rdi
movq %rax, 312(%rsp)
movq %rcx, 320(%rsp)
movq %rdx, 328(%rsp)
movq %rsi, 336(%rsp)
movq %rdi, 344(%rsp)
movq 112(%rsp), %rax
movq 120(%rsp), %rcx
movq 128(%rsp), %rdx
movq 136(%rsp), %rsi
movq 144(%rsp), %rdi
addq 152(%rsp), %rax
addq 160(%rsp), %rcx
addq 168(%rsp), %rdx
addq 176(%rsp), %rsi
addq 184(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 328(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 320(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 272(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 272(%rsp), %rax
mulq 320(%rsp)
movq %rax, %rsi
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 328(%rsp)
movq %rax, %r10
movq %rdx, %r8
movq 272(%rsp), %rax
mulq 336(%rsp)
movq %rax, %rdi
movq %rdx, %rbp
movq 272(%rsp), %rax
mulq 344(%rsp)
movq %rax, %r11
movq %rdx, %rcx
movq 280(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 280(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 280(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 288(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 288(%rsp), %rax
mulq 320(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 288(%rsp), %rax
mulq 328(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 336(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 344(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 312(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 296(%rsp), %rax
mulq 320(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 336(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 344(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 304(%rsp), %rax
mulq 312(%rsp)
addq %rax, %r11
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 328(%rsp)
addq %rax, %rsi
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 336(%rsp)
addq %rax, %r10
adcq %rdx, %r8
movq 32(%rsp), %rax
mulq 344(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %r12, %r9
andq %rax, %r12
shldq $13, %rsi, %rbx
andq %rax, %rsi
addq %r9, %rsi
shldq $13, %r10, %r8
andq %rax, %r10
addq %rbx, %r10
shldq $13, %rdi, %rbp
andq %rax, %rdi
addq %r8, %rdi
shldq $13, %r11, %rcx
andq %rax, %r11
addq %rbp, %r11
imulq $19, %rcx, %rcx
addq %rcx, %r12
movq %r12, %rcx
shrq $51, %rcx
addq %rsi, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r12
addq %r10, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r12
andq %rax, %r8
movq %r12, 312(%rsp)
movq %rdx, 320(%rsp)
movq %rsi, 328(%rsp)
movq %rdi, 336(%rsp)
movq %r8, 344(%rsp)
movq 376(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 248(%rsp)
movq %rax, %r10
movq %rdx, %r9
movq 384(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 240(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 352(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 352(%rsp), %rax
mulq 240(%rsp)
movq %rax, %rdi
movq %rdx, %rbx
movq 352(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rsi
movq %rdx, %rcx
movq 352(%rsp), %rax
mulq 256(%rsp)
movq %rax, %r12
movq %rdx, %r8
movq 352(%rsp), %rax
mulq 264(%rsp)
movq %rax, %r11
movq %rdx, %rbp
movq 360(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 360(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 360(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 360(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 360(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 368(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 368(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %r9
movq 368(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 376(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 376(%rsp), %rax
mulq 240(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 384(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 24(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rdi
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rsi
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %r10, %r9
andq %rax, %r10
shldq $13, %rdi, %rbx
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %rsi, %rcx
andq %rax, %rsi
addq %rbx, %rsi
shldq $13, %r12, %r8
andq %rax, %r12
addq %rcx, %r12
shldq $13, %r11, %rbp
andq %rax, %r11
addq %r8, %r11
imulq $19, %rbp, %rcx
addq %rcx, %r10
movq %r10, %rcx
shrq $51, %rcx
addq %rdi, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r10
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %r12, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r10
andq %rax, %r8
movq %r10, 352(%rsp)
movq %rdx, 360(%rsp)
movq %rsi, 368(%rsp)
movq %rdi, 376(%rsp)
movq %r8, 384(%rsp)
movq 272(%rsp), %rax
mulq 272(%rsp)
movq %rax, %r11
movq %rdx, %rbx
movq 272(%rsp), %rax
shlq $1, %rax
mulq 280(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 272(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 272(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 272(%rsp), %rax
shlq $1, %rax
mulq 304(%rsp)
movq %rax, %rbp
movq %rdx, %r8
movq 280(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 280(%rsp), %rax
shlq $1, %rax
mulq 288(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 280(%rsp), %rax
shlq $1, %rax
mulq 296(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 280(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 288(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rbp
adcq %rdx, %r8
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 296(%rsp)
addq %rax, %r11
adcq %rdx, %rbx
movq 288(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 296(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 296(%rsp), %rax
imulq $38, %rax, %rax
mulq 304(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 304(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq $2251799813685247, %rax
shldq $13, %r11, %rbx
andq %rax, %r11
shldq $13, %r12, %r9
andq %rax, %r12
addq %rbx, %r12
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %r9, %rdi
shldq $13, %rsi, %r10
andq %rax, %rsi
addq %rcx, %rsi
shldq $13, %rbp, %r8
andq %rax, %rbp
addq %r10, %rbp
imulq $19, %r8, %rcx
addq %rcx, %r11
movq %r11, %rcx
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %r11
movq %rcx, %rdx
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %rdx
movq %rcx, %rdi
shrq $51, %rcx
addq %rsi, %rcx
andq %rax, %rdi
movq %rcx, %rsi
shrq $51, %rcx
addq %rbp, %rcx
andq %rax, %rsi
movq %rcx, %r8
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %r11
andq %rax, %r8
movq %r11, 272(%rsp)
movq %rdx, 280(%rsp)
movq %rdi, 288(%rsp)
movq %rsi, 296(%rsp)
movq %r8, 304(%rsp)
movq 232(%rsp), %rax
mulq 232(%rsp)
movq %rax, %rcx
movq %rdx, %rsi
movq 232(%rsp), %rax
shlq $1, %rax
mulq 240(%rsp)
movq %rax, %rbp
movq %rdx, %r10
movq 232(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %r11
movq 232(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
movq %rax, %r12
movq %rdx, %r8
movq 232(%rsp), %rax
shlq $1, %rax
mulq 264(%rsp)
movq %rax, %rbx
movq %rdx, %r9
movq 240(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 240(%rsp), %rax
shlq $1, %rax
mulq 248(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq 240(%rsp), %rax
shlq $1, %rax
mulq 256(%rsp)
addq %rax, %rbx
adcq %rdx, %r9
movq 240(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 248(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbx
adcq %rdx, %r9
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 256(%rsp)
addq %rax, %rcx
adcq %rdx, %rsi
movq 248(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 256(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r10
movq 256(%rsp), %rax
imulq $38, %rax, %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %r11
movq 264(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r12
adcq %rdx, %r8
movq $2251799813685247, %rax
shldq $13, %rcx, %rsi
andq %rax, %rcx
shldq $13, %rbp, %r10
andq %rax, %rbp
addq %rsi, %rbp
shldq $13, %rdi, %r11
andq %rax, %rdi
addq %r10, %rdi
shldq $13, %r12, %r8
andq %rax, %r12
addq %r11, %r12
shldq $13, %rbx, %r9
andq %rax, %rbx
addq %r8, %rbx
imulq $19, %r9, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %rdi
movq %rdx, %r8
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %r8
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 232(%rsp)
movq %rsi, 240(%rsp)
movq %rdi, 248(%rsp)
movq %r8, 256(%rsp)
movq %r9, 264(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
addq 352(%rsp), %rax
addq 360(%rsp), %rcx
addq 368(%rsp), %rdx
addq 376(%rsp), %rsi
addq 384(%rsp), %rdi
movq %rax, 392(%rsp)
movq %rcx, 400(%rsp)
movq %rdx, 408(%rsp)
movq %rsi, 416(%rsp)
movq %rdi, 424(%rsp)
movq 312(%rsp), %rax
movq 320(%rsp), %rcx
movq 328(%rsp), %rdx
movq 336(%rsp), %rsi
movq 344(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 352(%rsp), %rax
subq 360(%rsp), %rcx
subq 368(%rsp), %rdx
subq 376(%rsp), %rsi
subq 384(%rsp), %rdi
movq %rax, 352(%rsp)
movq %rcx, 360(%rsp)
movq %rdx, 368(%rsp)
movq %rsi, 376(%rsp)
movq %rdi, 384(%rsp)
movq 296(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 248(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 304(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 240(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 272(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 272(%rsp), %rax
mulq 240(%rsp)
movq %rax, %r10
movq %rdx, %rbx
movq 272(%rsp), %rax
mulq 248(%rsp)
movq %rax, %rdi
movq %rdx, %rcx
movq 272(%rsp), %rax
mulq 256(%rsp)
movq %rax, %rsi
movq %rdx, %r12
movq 272(%rsp), %rax
mulq 264(%rsp)
movq %rax, %rbp
movq %rdx, %r9
movq 280(%rsp), %rax
mulq 232(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 280(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 280(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 280(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 280(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 288(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 288(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 288(%rsp), %rax
mulq 248(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 256(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 288(%rsp), %rax
imulq $19, %rax, %rax
mulq 264(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 296(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq 296(%rsp), %rax
mulq 240(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 24(%rsp), %rax
mulq 256(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 24(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 304(%rsp), %rax
mulq 232(%rsp)
addq %rax, %rbp
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 248(%rsp)
addq %rax, %r10
adcq %rdx, %rbx
movq 32(%rsp), %rax
mulq 256(%rsp)
addq %rax, %rdi
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 264(%rsp)
addq %rax, %rsi
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %r8, %r11
andq %rax, %r8
shldq $13, %r10, %rbx
andq %rax, %r10
addq %r11, %r10
shldq $13, %rdi, %rcx
andq %rax, %rdi
addq %rbx, %rdi
shldq $13, %rsi, %r12
andq %rax, %rsi
addq %rcx, %rsi
shldq $13, %rbp, %r9
andq %rax, %rbp
addq %r12, %rbp
imulq $19, %r9, %rcx
addq %rcx, %r8
movq %r8, %rcx
shrq $51, %rcx
addq %r10, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r8
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rdx
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdi
addq %rbp, %rcx
movq %rcx, %r9
shrq $51, %rcx
andq %rax, %rsi
imulq $19, %rcx, %rcx
addq %rcx, %r8
andq %rax, %r9
movq %r8, 72(%rsp)
movq %rdx, 80(%rsp)
movq %rdi, 88(%rsp)
movq %rsi, 96(%rsp)
movq %r9, 104(%rsp)
movq 272(%rsp), %rax
movq 280(%rsp), %rcx
movq 288(%rsp), %rdx
movq 296(%rsp), %rsi
movq 304(%rsp), %rdi
movq $4503599627370458, %r8
movq $4503599627370494, %r9
addq %r8, %rax
addq %r9, %rcx
addq %r9, %rdx
addq %r9, %rsi
addq %r9, %rdi
subq 232(%rsp), %rax
subq 240(%rsp), %rcx
subq 248(%rsp), %rdx
subq 256(%rsp), %rsi
subq 264(%rsp), %rdi
movq %rax, 232(%rsp)
movq %rcx, 240(%rsp)
movq %rdx, 248(%rsp)
movq %rsi, 256(%rsp)
movq %rdi, 264(%rsp)
movq 352(%rsp), %rax
mulq 352(%rsp)
movq %rax, %rcx
movq %rdx, %r8
movq 352(%rsp), %rax
shlq $1, %rax
mulq 360(%rsp)
movq %rax, %r9
movq %rdx, %r11
movq 352(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
movq %rax, %rdi
movq %rdx, %r10
movq 352(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
movq %rax, %rbx
movq %rdx, %rbp
movq 352(%rsp), %rax
shlq $1, %rax
mulq 384(%rsp)
movq %rax, %r12
movq %rdx, %rsi
movq 360(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %r10
movq 360(%rsp), %rax
shlq $1, %rax
mulq 368(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq 360(%rsp), %rax
shlq $1, %rax
mulq 376(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 360(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 368(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r12
adcq %rdx, %rsi
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 376(%rsp)
addq %rax, %rcx
adcq %rdx, %r8
movq 368(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 376(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 376(%rsp), %rax
imulq $38, %rax, %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %r10
movq 384(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %rbx
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %rcx, %r8
andq %rax, %rcx
shldq $13, %r9, %r11
andq %rax, %r9
addq %r8, %r9
shldq $13, %rdi, %r10
andq %rax, %rdi
addq %r11, %rdi
shldq $13, %rbx, %rbp
andq %rax, %rbx
addq %r10, %rbx
shldq $13, %r12, %rsi
andq %rax, %r12
addq %rbp, %r12
imulq $19, %rsi, %rdx
addq %rdx, %rcx
movq %rcx, %rdx
shrq $51, %rdx
addq %r9, %rdx
andq %rax, %rcx
movq %rdx, %rsi
shrq $51, %rdx
addq %rdi, %rdx
andq %rax, %rsi
movq %rdx, %rdi
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %rdi
movq %rdx, %r8
shrq $51, %rdx
addq %r12, %rdx
andq %rax, %r8
movq %rdx, %r9
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %rcx
andq %rax, %r9
movq %rcx, 352(%rsp)
movq %rsi, 360(%rsp)
movq %rdi, 368(%rsp)
movq %r8, 376(%rsp)
movq %r9, 384(%rsp)
movq $996679680, %rcx
movq 232(%rsp), %rax
mulq %rcx
shrq $13, %rax
movq %rax, %rsi
movq %rdx, %rdi
movq 240(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %rdi
movq %rdx, %r8
movq 248(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r8
movq %rdx, %r9
movq 256(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r9
movq %rdx, %r10
movq 264(%rsp), %rax
mulq %rcx
shrq $13, %rax
addq %rax, %r10
imulq $19, %rdx, %rax
addq %rax, %rsi
addq 272(%rsp), %rsi
addq 280(%rsp), %rdi
addq 288(%rsp), %r8
addq 296(%rsp), %r9
addq 304(%rsp), %r10
movq %rsi, 272(%rsp)
movq %rdi, 280(%rsp)
movq %r8, 288(%rsp)
movq %r9, 296(%rsp)
movq %r10, 304(%rsp)
movq 392(%rsp), %rax
mulq 392(%rsp)
movq %rax, %rsi
movq %rdx, %r10
movq 392(%rsp), %rax
shlq $1, %rax
mulq 400(%rsp)
movq %rax, %rbx
movq %rdx, %rcx
movq 392(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
movq %rax, %r11
movq %rdx, %rbp
movq 392(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
movq %rax, %r12
movq %rdx, %r9
movq 392(%rsp), %rax
shlq $1, %rax
mulq 424(%rsp)
movq %rax, %rdi
movq %rdx, %r8
movq 400(%rsp), %rax
mulq 400(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 400(%rsp), %rax
shlq $1, %rax
mulq 408(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq 400(%rsp), %rax
shlq $1, %rax
mulq 416(%rsp)
addq %rax, %rdi
adcq %rdx, %r8
movq 400(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 408(%rsp), %rax
mulq 408(%rsp)
addq %rax, %rdi
adcq %rdx, %r8
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 416(%rsp)
addq %rax, %rsi
adcq %rdx, %r10
movq 408(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %rbx
adcq %rdx, %rcx
movq 416(%rsp), %rax
imulq $19, %rax, %rax
mulq 416(%rsp)
addq %rax, %rbx
adcq %rdx, %rcx
movq 416(%rsp), %rax
imulq $38, %rax, %rax
mulq 424(%rsp)
addq %rax, %r11
adcq %rdx, %rbp
movq 424(%rsp), %rax
imulq $19, %rax, %rax
mulq 424(%rsp)
addq %rax, %r12
adcq %rdx, %r9
movq $2251799813685247, %rax
shldq $13, %rsi, %r10
andq %rax, %rsi
shldq $13, %rbx, %rcx
andq %rax, %rbx
addq %r10, %rbx
shldq $13, %r11, %rbp
andq %rax, %r11
addq %rcx, %r11
shldq $13, %r12, %r9
andq %rax, %r12
addq %rbp, %r12
shldq $13, %rdi, %r8
andq %rax, %rdi
addq %r9, %rdi
imulq $19, %r8, %rcx
addq %rcx, %rsi
movq %rsi, %rcx
shrq $51, %rcx
addq %rbx, %rcx
andq %rax, %rsi
movq %rcx, %rdx
shrq $51, %rcx
addq %r11, %rcx
andq %rax, %rdx
movq %rcx, %r8
shrq $51, %rcx
addq %r12, %rcx
andq %rax, %r8
movq %rcx, %r9
shrq $51, %rcx
addq %rdi, %rcx
andq %rax, %r9
movq %rcx, %rdi
shrq $51, %rcx
imulq $19, %rcx, %rcx
addq %rcx, %rsi
andq %rax, %rdi
movq %rsi, 112(%rsp)
movq %rdx, 120(%rsp)
movq %r8, 128(%rsp)
movq %r9, 136(%rsp)
movq %rdi, 144(%rsp)
movq 216(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 368(%rsp)
movq %rax, %r9
movq %rdx, %rsi
movq 224(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 360(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 192(%rsp), %rax
mulq 360(%rsp)
movq %rax, %r10
movq %rdx, %rcx
movq 192(%rsp), %rax
mulq 368(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 192(%rsp), %rax
mulq 376(%rsp)
movq %rax, %rdi
movq %rdx, %rbp
movq 192(%rsp), %rax
mulq 384(%rsp)
movq %rax, %r8
movq %rdx, %r11
movq 200(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 200(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 200(%rsp), %rax
mulq 368(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 200(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 200(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 208(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 208(%rsp), %rax
mulq 360(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 208(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 376(%rsp)
addq %rax, %r9
adcq %rdx, %rsi
movq 208(%rsp), %rax
imulq $19, %rax, %rax
mulq 384(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 216(%rsp), %rax
mulq 352(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq 216(%rsp), %rax
mulq 360(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 32(%rsp), %rax
mulq 376(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 32(%rsp), %rax
mulq 384(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 224(%rsp), %rax
mulq 352(%rsp)
addq %rax, %r8
adcq %rdx, %r11
movq 24(%rsp), %rax
mulq 368(%rsp)
addq %rax, %r10
adcq %rdx, %rcx
movq 24(%rsp), %rax
mulq 376(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 24(%rsp), %rax
mulq 384(%rsp)
addq %rax, %rdi
adcq %rdx, %rbp
movq $2251799813685247, %rax
shldq $13, %r9, %rsi
andq %rax, %r9
shldq $13, %r10, %rcx
andq %rax, %r10
addq %rsi, %r10
shldq $13, %rbx, %r12
andq %rax, %rbx
addq %rcx, %rbx
shldq $13, %rdi, %rbp
andq %rax, %rdi
addq %r12, %rdi
shldq $13, %r8, %r11
andq %rax, %r8
addq %rbp, %r8
imulq $19, %r11, %rcx
addq %rcx, %r9
movq %r9, %rcx
shrq $51, %rcx
addq %r10, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %r9
addq %rbx, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %rdx
addq %rdi, %rcx
movq %rcx, %rdi
shrq $51, %rcx
andq %rax, %rsi
addq %r8, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdi
imulq $19, %rcx, %rcx
addq %rcx, %r9
andq %rax, %r8
movq %r9, 152(%rsp)
movq %rdx, 160(%rsp)
movq %rsi, 168(%rsp)
movq %rdi, 176(%rsp)
movq %r8, 184(%rsp)
movq 256(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 24(%rsp)
mulq 288(%rsp)
movq %rax, %rbx
movq %rdx, %r12
movq 264(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 32(%rsp)
mulq 280(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 232(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 232(%rsp), %rax
mulq 280(%rsp)
movq %rax, %r11
movq %rdx, %rsi
movq 232(%rsp), %rax
mulq 288(%rsp)
movq %rax, %r8
movq %rdx, %r9
movq 232(%rsp), %rax
mulq 296(%rsp)
movq %rax, %rcx
movq %rdx, %rdi
movq 232(%rsp), %rax
mulq 304(%rsp)
movq %rax, %r10
movq %rdx, %rbp
movq 240(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 240(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 240(%rsp), %rax
mulq 288(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 240(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 240(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 248(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 248(%rsp), %rax
mulq 280(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 248(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 296(%rsp)
addq %rax, %rbx
adcq %rdx, %r12
movq 248(%rsp), %rax
imulq $19, %rax, %rax
mulq 304(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 256(%rsp), %rax
mulq 272(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq 256(%rsp), %rax
mulq 280(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 24(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 24(%rsp), %rax
mulq 304(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 264(%rsp), %rax
mulq 272(%rsp)
addq %rax, %r10
adcq %rdx, %rbp
movq 32(%rsp), %rax
mulq 288(%rsp)
addq %rax, %r11
adcq %rdx, %rsi
movq 32(%rsp), %rax
mulq 296(%rsp)
addq %rax, %r8
adcq %rdx, %r9
movq 32(%rsp), %rax
mulq 304(%rsp)
addq %rax, %rcx
adcq %rdx, %rdi
movq $2251799813685247, %r13
shldq $13, %rbx, %r12
andq %r13, %rbx
shldq $13, %r11, %rsi
andq %r13, %r11
addq %r12, %r11
shldq $13, %r8, %r9
andq %r13, %r8
addq %rsi, %r8
shldq $13, %rcx, %rdi
andq %r13, %rcx
addq %r9, %rcx
shldq $13, %r10, %rbp
andq %r13, %r10
addq %rdi, %r10
imulq $19, %rbp, %rax
addq %rax, %rbx
movq %rbx, %r9
shrq $51, %r9
addq %r11, %r9
movq %r9, %rax
shrq $51, %r9
andq %r13, %rbx
addq %r8, %r9
movq %r9, %rdx
shrq $51, %r9
andq %r13, %rax
addq %rcx, %r9
movq %r9, %rsi
shrq $51, %r9
andq %r13, %rdx
addq %r10, %r9
movq %r9, %rdi
shrq $51, %r9
andq %r13, %rsi
imulq $19, %r9, %rcx
addq %rcx, %rbx
andq %r13, %rdi
movq 16(%rsp), %rcx
cmpq $0, %rcx
jnbe Ljade_scalarmult_curve25519_amd64_ref5$28
movq %rbx, 152(%rsp)
movq %rax, 160(%rsp)
movq %rdx, 168(%rsp)
movq %rsi, 176(%rsp)
movq %rdi, 184(%rsp)
movq 152(%rsp), %rax
movq %rax, 112(%rsp)
movq 160(%rsp), %rax
movq %rax, 120(%rsp)
movq 168(%rsp), %rax
movq %rax, 128(%rsp)
movq 176(%rsp), %rax
movq %rax, 136(%rsp)
movq 184(%rsp), %rax
movq %rax, 144(%rsp)
leaq 112(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$27(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$27:
leaq 8(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 192(%rsp)
movq 120(%rsp), %rax
movq %rax, 200(%rsp)
movq 128(%rsp), %rax
movq %rax, 208(%rsp)
movq 136(%rsp), %rax
movq %rax, 216(%rsp)
movq 144(%rsp), %rax
movq %rax, 224(%rsp)
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$26(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$26:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$25(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$25:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$24(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$24:
leaq 24(%rsp), %rsp
leaq 112(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$23(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$23:
leaq 24(%rsp), %rsp
movq 112(%rsp), %rax
movq %rax, 152(%rsp)
movq 120(%rsp), %rax
movq %rax, 160(%rsp)
movq 128(%rsp), %rax
movq %rax, 168(%rsp)
movq 136(%rsp), %rax
movq %rax, 176(%rsp)
movq 144(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$22(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$22:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$21(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$21:
leaq 24(%rsp), %rsp
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$20(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$20:
leaq 8(%rsp), %rsp
movl $4, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$19(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$19:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$18(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$18:
leaq 24(%rsp), %rsp
movl $10, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$17(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$17:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$16(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$16:
leaq 24(%rsp), %rsp
movl $20, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$15(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$15:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$14(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$14:
leaq 24(%rsp), %rsp
movl $10, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$13(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$13:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$12(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$12:
leaq 24(%rsp), %rsp
movl $50, %r13d
movq 192(%rsp), %rax
movq %rax, 152(%rsp)
movq 200(%rsp), %rax
movq %rax, 160(%rsp)
movq 208(%rsp), %rax
movq %rax, 168(%rsp)
movq 216(%rsp), %rax
movq %rax, 176(%rsp)
movq 224(%rsp), %rax
movq %rax, 184(%rsp)
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$11(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$11:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 192(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$10(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$10:
leaq 24(%rsp), %rsp
movl $100, %r13d
movq 152(%rsp), %rax
movq %rax, 272(%rsp)
movq 160(%rsp), %rax
movq %rax, 280(%rsp)
movq 168(%rsp), %rax
movq %rax, 288(%rsp)
movq 176(%rsp), %rax
movq %rax, 296(%rsp)
movq 184(%rsp), %rax
movq %rax, 304(%rsp)
leaq 272(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$9(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$9:
leaq 8(%rsp), %rsp
leaq 152(%rsp), %r9
leaq 272(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$8(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$8:
leaq 24(%rsp), %rsp
movl $50, %r13d
leaq 152(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$7(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$7:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 152(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$6(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$6:
leaq 24(%rsp), %rsp
movl $4, %r13d
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$5(%rip), %rax
movq %rax, (%rsp)
jmp L_it_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$5:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %rdi
leaq -8(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$4(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
Ljade_scalarmult_curve25519_amd64_ref5$4:
leaq 8(%rsp), %rsp
leaq 192(%rsp), %r9
leaq 112(%rsp), %rbp
leaq -24(%rsp), %rsp
leaq Ljade_scalarmult_curve25519_amd64_ref5$3(%rip), %rax
movq %rax, 16(%rsp)
jmp L_mul5_pp$1
Ljade_scalarmult_curve25519_amd64_ref5$3:
leaq 24(%rsp), %rsp
movq 96(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 208(%rsp)
movq %rax, %r10
movq %rdx, %rsi
movq 104(%rsp), %rax
imulq $19, %rax, %rax
movq %rax, 16(%rsp)
mulq 200(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 72(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 72(%rsp), %rax
mulq 200(%rsp)
movq %rax, %rbp
movq %rdx, %rdi
movq 72(%rsp), %rax
mulq 208(%rsp)
movq %rax, %rcx
movq %rdx, %r12
movq 72(%rsp), %rax
mulq 216(%rsp)
movq %rax, %r9
movq %rdx, %r11
movq 72(%rsp), %rax
mulq 224(%rsp)
movq %rax, %r8
movq %rdx, %rbx
movq 80(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 80(%rsp), %rax
mulq 200(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 80(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 80(%rsp), %rax
mulq 216(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 80(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 88(%rsp), %rax
mulq 192(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 88(%rsp), %rax
mulq 200(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 88(%rsp), %rax
mulq 208(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 216(%rsp)
addq %rax, %r10
adcq %rdx, %rsi
movq 88(%rsp), %rax
imulq $19, %rax, %rax
mulq 224(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 96(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq 96(%rsp), %rax
mulq 200(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 8(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 8(%rsp), %rax
mulq 224(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 104(%rsp), %rax
mulq 192(%rsp)
addq %rax, %r8
adcq %rdx, %rbx
movq 16(%rsp), %rax
mulq 208(%rsp)
addq %rax, %rbp
adcq %rdx, %rdi
movq 16(%rsp), %rax
mulq 216(%rsp)
addq %rax, %rcx
adcq %rdx, %r12
movq 16(%rsp), %rax
mulq 224(%rsp)
addq %rax, %r9
adcq %rdx, %r11
movq $2251799813685247, %rax
shldq $13, %r10, %rsi
andq %rax, %r10
shldq $13, %rbp, %rdi
andq %rax, %rbp
addq %rsi, %rbp
shldq $13, %rcx, %r12
andq %rax, %rcx
addq %rdi, %rcx
shldq $13, %r9, %r11
andq %rax, %r9
addq %r12, %r9
shldq $13, %r8, %rbx
andq %rax, %r8
addq %r11, %r8
imulq $19, %rbx, %rdx
addq %rdx, %r10
movq %r10, %r11
shrq $51, %r11
addq %rbp, %r11
movq %r11, %rdx
shrq $51, %r11
andq %rax, %r10
addq %rcx, %r11
movq %r11, %rcx
shrq $51, %r11
andq %rax, %rdx
addq %r9, %r11
movq %r11, %rsi
shrq $51, %r11
andq %rax, %rcx
addq %r8, %r11
movq %r11, %rdi
shrq $51, %r11
andq %rax, %rsi
imulq $19, %r11, %r8
addq %r8, %r10
andq %rax, %rdi
movq $2251799813685247, %rax
movq %rax, %r8
addq $-18, %r8
movq $3, %r9
jmp Ljade_scalarmult_curve25519_amd64_ref5$1
Ljade_scalarmult_curve25519_amd64_ref5$2:
movq %r10, %r11
shrq $51, %r11
andq %rax, %r10
addq %r11, %rdx
movq %rdx, %r11
shrq $51, %r11
andq %rax, %rdx
addq %r11, %rcx
movq %rcx, %r11
shrq $51, %r11
andq %rax, %rcx
addq %r11, %rsi
movq %rsi, %r11
shrq $51, %r11
andq %rax, %rsi
addq %r11, %rdi
movq %rdi, %r11
shrq $51, %r11
andq %rax, %rdi
imulq $19, %r11, %r11
addq %r11, %r10
addq $-1, %r9
Ljade_scalarmult_curve25519_amd64_ref5$1:
cmpq $0, %r9
jnbe Ljade_scalarmult_curve25519_amd64_ref5$2
movq $1, %r11
cmpq %r8, %r10
cmovl %r9, %r11
cmpq %rax, %rdx
cmovne %r9, %r11
cmpq %rax, %rcx
cmovne %r9, %r11
cmpq %rax, %rsi
cmovne %r9, %r11
cmpq %rax, %rdi
cmovne %r9, %r11
negq %r11
andq %r11, %rax
andq %r11, %r8
subq %r8, %r10
subq %rax, %rdx
subq %rax, %rcx
subq %rax, %rsi
subq %rax, %rdi
movq %rdx, %rax
shlq $51, %rax
orq %r10, %rax
movq %rcx, %r8
shlq $38, %r8
shrq $13, %rdx
orq %rdx, %r8
movq %rsi, %rdx
shlq $25, %rdx
shrq $26, %rcx
orq %rcx, %rdx
shlq $12, %rdi
shrq $39, %rsi
orq %rsi, %rdi
movq (%rsp), %rcx
movq %rax, (%rcx)
movq %r8, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdi, 24(%rcx)
xorq %rax, %rax
movq 432(%rsp), %rbx
movq 440(%rsp), %rbp
movq 448(%rsp), %r12
movq 456(%rsp), %r13
movq 464(%rsp), %r14
movq 472(%rsp), %rsp
ret
L_it_sqr5_p$1:
L_it_sqr5_p$2:
leaq -8(%rsp), %rsp
leaq L_it_sqr5_p$3(%rip), %rax
movq %rax, (%rsp)
jmp L_sqr5_p$1
L_it_sqr5_p$3:
leaq 8(%rsp), %rsp
decl %r13d
jne L_it_sqr5_p$2
jmp *(%rsp)
L_sqr5_p$1:
movq (%rdi), %rax
mulq (%rdi)
movq %rax, %r8
movq %rdx, %rsi
movq (%rdi), %rax
shlq $1, %rax
mulq 8(%rdi)
movq %rax, %rbx
movq %rdx, %r11
movq (%rdi), %rax
shlq $1, %rax
mulq 16(%rdi)
movq %rax, %r10
movq %rdx, %r14
movq (%rdi), %rax
shlq $1, %rax
mulq 24(%rdi)
movq %rax, %rbp
movq %rdx, %r12
movq (%rdi), %rax
shlq $1, %rax
mulq 32(%rdi)
movq %rax, %rcx
movq %rdx, %r9
movq 8(%rdi), %rax
mulq 8(%rdi)
addq %rax, %r10
adcq %rdx, %r14
movq 8(%rdi), %rax
shlq $1, %rax
mulq 16(%rdi)
addq %rax, %rbp
adcq %rdx, %r12
movq 8(%rdi), %rax
shlq $1, %rax
mulq 24(%rdi)
addq %rax, %rcx
adcq %rdx, %r9
movq 8(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %r8
adcq %rdx, %rsi
movq 16(%rdi), %rax
mulq 16(%rdi)
addq %rax, %rcx
adcq %rdx, %r9
movq 16(%rdi), %rax
imulq $38, %rax, %rax
mulq 24(%rdi)
addq %rax, %r8
adcq %rdx, %rsi
movq 16(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %rbx
adcq %rdx, %r11
movq 24(%rdi), %rax
imulq $19, %rax, %rax
mulq 24(%rdi)
addq %rax, %rbx
adcq %rdx, %r11
movq 24(%rdi), %rax
imulq $38, %rax, %rax
mulq 32(%rdi)
addq %rax, %r10
adcq %rdx, %r14
movq 32(%rdi), %rax
imulq $19, %rax, %rax
mulq 32(%rdi)
addq %rax, %rbp
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %r8, %rsi
andq %rax, %r8
shldq $13, %rbx, %r11
andq %rax, %rbx
addq %rsi, %rbx
shldq $13, %r10, %r14
andq %rax, %r10
addq %r11, %r10
shldq $13, %rbp, %r12
andq %rax, %rbp
addq %r14, %rbp
shldq $13, %rcx, %r9
andq %rax, %rcx
addq %r12, %rcx
imulq $19, %r9, %rdx
addq %rdx, %r8
movq %r8, %rdx
shrq $51, %rdx
addq %rbx, %rdx
andq %rax, %r8
movq %rdx, %rsi
shrq $51, %rdx
addq %r10, %rdx
andq %rax, %rsi
movq %rdx, %r9
shrq $51, %rdx
addq %rbp, %rdx
andq %rax, %r9
movq %rdx, %r10
shrq $51, %rdx
addq %rcx, %rdx
andq %rax, %r10
movq %rdx, %rcx
shrq $51, %rdx
imulq $19, %rdx, %rdx
addq %rdx, %r8
andq %rax, %rcx
movq %r8, (%rdi)
movq %rsi, 8(%rdi)
movq %r9, 16(%rdi)
movq %r10, 24(%rdi)
movq %rcx, 32(%rdi)
jmp *(%rsp)
L_mul5_pp$1:
movq 24(%r9), %rax
imulq $19, %rax, %rax
movq %rax, (%rsp)
mulq 16(%rbp)
movq %rax, %rdi
movq %rdx, %r8
movq 32(%r9), %rax
imulq $19, %rax, %rax
movq %rax, 8(%rsp)
mulq 8(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq (%r9), %rax
mulq (%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq (%r9), %rax
mulq 8(%rbp)
movq %rax, %rbx
movq %rdx, %r14
movq (%r9), %rax
mulq 16(%rbp)
movq %rax, %r11
movq %rdx, %rcx
movq (%r9), %rax
mulq 24(%rbp)
movq %rax, %r10
movq %rdx, %r12
movq (%r9), %rax
mulq 32(%rbp)
movq %rax, %rsi
movq %rdx, %r13
movq 8(%r9), %rax
mulq (%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 8(%r9), %rax
mulq 8(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 8(%r9), %rax
mulq 16(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 8(%r9), %rax
mulq 24(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 8(%r9), %rax
imulq $19, %rax, %rax
mulq 32(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq 16(%r9), %rax
mulq (%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 16(%r9), %rax
mulq 8(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 16(%r9), %rax
mulq 16(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 16(%r9), %rax
imulq $19, %rax, %rax
mulq 24(%rbp)
addq %rax, %rdi
adcq %rdx, %r8
movq 16(%r9), %rax
imulq $19, %rax, %rax
mulq 32(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 24(%r9), %rax
mulq (%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq 24(%r9), %rax
mulq 8(%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq (%rsp), %rax
mulq 24(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq (%rsp), %rax
mulq 32(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 32(%r9), %rax
mulq (%rbp)
addq %rax, %rsi
adcq %rdx, %r13
movq 8(%rsp), %rax
mulq 16(%rbp)
addq %rax, %rbx
adcq %rdx, %r14
movq 8(%rsp), %rax
mulq 24(%rbp)
addq %rax, %r11
adcq %rdx, %rcx
movq 8(%rsp), %rax
mulq 32(%rbp)
addq %rax, %r10
adcq %rdx, %r12
movq $2251799813685247, %rax
shldq $13, %rdi, %r8
andq %rax, %rdi
shldq $13, %rbx, %r14
andq %rax, %rbx
addq %r8, %rbx
shldq $13, %r11, %rcx
andq %rax, %r11
addq %r14, %r11
shldq $13, %r10, %r12
andq %rax, %r10
addq %rcx, %r10
shldq $13, %rsi, %r13
andq %rax, %rsi
addq %r12, %rsi
imulq $19, %r13, %rcx
addq %rcx, %rdi
movq %rdi, %rcx
shrq $51, %rcx
addq %rbx, %rcx
movq %rcx, %rdx
shrq $51, %rcx
andq %rax, %rdi
addq %r11, %rcx
movq %rcx, %r8
shrq $51, %rcx
andq %rax, %rdx
addq %r10, %rcx
movq %rcx, %r10
shrq $51, %rcx
andq %rax, %r8
addq %rsi, %rcx
movq %rcx, %rsi
shrq $51, %rcx
andq %rax, %r10
imulq $19, %rcx, %rcx
addq %rcx, %rdi
andq %rax, %rsi
movq %rdi, (%r9)
movq %rdx, 8(%r9)
movq %r8, 16(%r9)
movq %r10, 24(%r9)
movq %rsi, 32(%r9)
jmp *16(%rsp)
|
verdict-x509/verdict
| 377,805
|
deps/libcrux/sys/libjade/jazz/kyber_kyber768_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_kem_kyber_kyber768_amd64_ref_dec
.globl jade_kem_kyber_kyber768_amd64_ref_dec
.globl _jade_kem_kyber_kyber768_amd64_ref_enc_derand
.globl jade_kem_kyber_kyber768_amd64_ref_enc_derand
.globl _jade_kem_kyber_kyber768_amd64_ref_keypair_derand
.globl jade_kem_kyber_kyber768_amd64_ref_keypair_derand
_jade_kem_kyber_kyber768_amd64_ref_dec:
jade_kem_kyber_kyber768_amd64_ref_dec:
movq %rsp, %rax
leaq -14560(%rsp), %rsp
andq $-8, %rsp
movq %rax, 14552(%rsp)
movq %r15, 14504(%rsp)
movq %r14, 14512(%rsp)
movq %r13, 14520(%rsp)
movq %r12, 14528(%rsp)
movq %rbp, 14536(%rsp)
movq %rbx, 14544(%rsp)
movq %rdi, (%rsp)
movq %rsi, 8(%rsp)
leaq 80(%rsp), %rax
movq $0, %rcx
movq $0, %rdi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$225
Ljade_kem_kyber_kyber768_amd64_ref_dec$226:
movzbl (%rsi,%rdi), %r10d
incq %rdi
movzbl (%rsi,%rdi), %r11d
incq %rdi
movzbl (%rsi,%rdi), %r8d
incq %rdi
movzbl (%rsi,%rdi), %r9d
incq %rdi
movzbl (%rsi,%rdi), %ebx
incq %rdi
movl %r11d, %ebp
shrl $2, %r11d
andl $3, %ebp
shll $8, %ebp
orl %ebp, %r10d
movl %r8d, %ebp
shrl $4, %r8d
andl $15, %ebp
shll $6, %ebp
orl %ebp, %r11d
movl %r9d, %ebp
shrl $6, %r9d
andl $63, %ebp
shll $4, %ebp
orl %ebp, %r8d
shll $2, %ebx
orl %ebx, %r9d
imull $3329, %r10d, %r10d
addl $512, %r10d
shrl $10, %r10d
movw %r10w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r11d, %r10d
addl $512, %r10d
shrl $10, %r10d
movw %r10w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r8d, %r8d
addl $512, %r8d
shrl $10, %r8d
movw %r8w, 2456(%rsp,%rcx,2)
incq %rcx
imull $3329, %r9d, %r8d
addl $512, %r8d
shrl $10, %r8d
movw %r8w, 2456(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$225:
cmpq $768, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$226
addq $960, %rsi
leaq 920(%rsp), %rcx
call L_poly_decompress$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$224:
movq %rdx, %rsi
leaq 3992(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$223:
addq $384, %rsi
leaq 4504(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$222:
addq $384, %rsi
leaq 5016(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$221:
leaq 2456(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$220:
leaq 2968(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$219:
leaq 3480(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$218:
leaq 408(%rsp), %rdi
leaq 3992(%rsp), %rcx
leaq 2456(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$217:
leaq 16(%rsp), %rsp
leaq 1432(%rsp), %rdi
leaq 4504(%rsp), %rcx
leaq 2968(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$216:
leaq 16(%rsp), %rsp
leaq 408(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$215:
leaq 1432(%rsp), %rdi
leaq 5016(%rsp), %rcx
leaq 3480(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$214:
leaq 16(%rsp), %rsp
leaq 408(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$213:
leaq 408(%rsp), %rcx
movq $0, %rsi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$211
Ljade_kem_kyber_kyber768_amd64_ref_dec$212:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$211:
cmpq $256, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$212
leaq 408(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$210:
leaq 1432(%rsp), %rcx
leaq 920(%rsp), %rsi
leaq 408(%rsp), %rdi
call L_poly_sub$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$209:
leaq 1432(%rsp), %rcx
movq $0, %rsi
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$207
Ljade_kem_kyber_kyber768_amd64_ref_dec$208:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$207:
cmpq $256, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$208
leaq 1432(%rsp), %rcx
call L_i_poly_tomsg$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$206:
leaq 32(%rdx), %rax
addq $2304, %rax
movq (%rax), %rcx
movq %rcx, 112(%rsp)
movq 8(%rax), %rcx
movq %rcx, 120(%rsp)
movq 16(%rax), %rcx
movq %rcx, 128(%rsp)
movq 24(%rax), %rax
movq %rax, 136(%rsp)
movq %rdx, 16(%rsp)
leaq 144(%rsp), %rax
leaq 80(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_512_64$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$205:
leaq 208(%rsp), %rsp
movq 16(%rsp), %rdx
addq $1152, %rdx
leaq 13410(%rsp), %rsi
leaq 80(%rsp), %rcx
leaq 176(%rsp), %rax
movq %rsi, 24(%rsp)
movq %rdx, %rsi
leaq 2456(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$204:
addq $384, %rsi
leaq 2968(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$203:
addq $384, %rsi
leaq 3480(%rsp), %rdi
call L_poly_frombytes$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$202:
movq $0, %rsi
addq $1152, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$200
Ljade_kem_kyber_kyber768_amd64_ref_dec$201:
movq (%rdx), %rdi
movq %rdi, 48(%rsp,%rsi,8)
addq $8, %rdx
incq %rsi
Ljade_kem_kyber_kyber768_amd64_ref_dec$200:
cmpq $4, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$201
leaq 1432(%rsp), %rdx
call L_i_poly_frommsg$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$199:
movq $1, %rcx
movq %rcx, 32(%rsp)
movb 48(%rsp), %cl
movb %cl, 13208(%rsp)
movb 49(%rsp), %cl
movb %cl, 13209(%rsp)
movb 50(%rsp), %cl
movb %cl, 13210(%rsp)
movb 51(%rsp), %cl
movb %cl, 13211(%rsp)
movb 52(%rsp), %cl
movb %cl, 13212(%rsp)
movb 53(%rsp), %cl
movb %cl, 13213(%rsp)
movb 54(%rsp), %cl
movb %cl, 13214(%rsp)
movb 55(%rsp), %cl
movb %cl, 13215(%rsp)
movb 56(%rsp), %cl
movb %cl, 13216(%rsp)
movb 57(%rsp), %cl
movb %cl, 13217(%rsp)
movb 58(%rsp), %cl
movb %cl, 13218(%rsp)
movb 59(%rsp), %cl
movb %cl, 13219(%rsp)
movb 60(%rsp), %cl
movb %cl, 13220(%rsp)
movb 61(%rsp), %cl
movb %cl, 13221(%rsp)
movb 62(%rsp), %cl
movb %cl, 13222(%rsp)
movb 63(%rsp), %cl
movb %cl, 13223(%rsp)
movb 64(%rsp), %cl
movb %cl, 13224(%rsp)
movb 65(%rsp), %cl
movb %cl, 13225(%rsp)
movb 66(%rsp), %cl
movb %cl, 13226(%rsp)
movb 67(%rsp), %cl
movb %cl, 13227(%rsp)
movb 68(%rsp), %cl
movb %cl, 13228(%rsp)
movb 69(%rsp), %cl
movb %cl, 13229(%rsp)
movb 70(%rsp), %cl
movb %cl, 13230(%rsp)
movb 71(%rsp), %cl
movb %cl, 13231(%rsp)
movb 72(%rsp), %cl
movb %cl, 13232(%rsp)
movb 73(%rsp), %cl
movb %cl, 13233(%rsp)
movb 74(%rsp), %cl
movb %cl, 13234(%rsp)
movb 75(%rsp), %cl
movb %cl, 13235(%rsp)
movb 76(%rsp), %cl
movb %cl, 13236(%rsp)
movb 77(%rsp), %cl
movb %cl, 13237(%rsp)
movb 78(%rsp), %cl
movb %cl, 13238(%rsp)
movb 79(%rsp), %cl
movb %cl, 13239(%rsp)
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$197
movb $0, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$198
Ljade_kem_kyber_kyber768_amd64_ref_dec$197:
movb $0, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$198:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$196:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$194
Ljade_kem_kyber_kyber768_amd64_ref_dec$195:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$194:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$195
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$186
Ljade_kem_kyber_kyber768_amd64_ref_dec$187:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$193:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$188:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$191
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$192:
Ljade_kem_kyber_kyber768_amd64_ref_dec$191:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$189
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$190:
Ljade_kem_kyber_kyber768_amd64_ref_dec$189:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$188
Ljade_kem_kyber_kyber768_amd64_ref_dec$186:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$187
movq $0, %rcx
movq $0, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$184
Ljade_kem_kyber_kyber768_amd64_ref_dec$185:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$184:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$185
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$182
movb $0, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$183
Ljade_kem_kyber_kyber768_amd64_ref_dec$182:
movb $1, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$183:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$181:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$179
Ljade_kem_kyber_kyber768_amd64_ref_dec$180:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$179:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$180
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$171
Ljade_kem_kyber_kyber768_amd64_ref_dec$172:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$178:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$173:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$176
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$177:
Ljade_kem_kyber_kyber768_amd64_ref_dec$176:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$174
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$175:
Ljade_kem_kyber_kyber768_amd64_ref_dec$174:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$173
Ljade_kem_kyber_kyber768_amd64_ref_dec$171:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$172
movq $0, %rcx
movq $256, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$169
Ljade_kem_kyber_kyber768_amd64_ref_dec$170:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$169:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$170
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$167
movb $0, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$168
Ljade_kem_kyber_kyber768_amd64_ref_dec$167:
movb $2, 13240(%rsp)
movb $0, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$168:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$166:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$164
Ljade_kem_kyber_kyber768_amd64_ref_dec$165:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$164:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$165
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$156
Ljade_kem_kyber_kyber768_amd64_ref_dec$157:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$163:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$158:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$161
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$162:
Ljade_kem_kyber_kyber768_amd64_ref_dec$161:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$159
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$160:
Ljade_kem_kyber_kyber768_amd64_ref_dec$159:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$158
Ljade_kem_kyber_kyber768_amd64_ref_dec$156:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$157
movq $0, %rcx
movq $512, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$154
Ljade_kem_kyber_kyber768_amd64_ref_dec$155:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$154:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$155
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$152
movb $1, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$153
Ljade_kem_kyber_kyber768_amd64_ref_dec$152:
movb $0, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$153:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$151:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$149
Ljade_kem_kyber_kyber768_amd64_ref_dec$150:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$149:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$150
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$141
Ljade_kem_kyber_kyber768_amd64_ref_dec$142:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$148:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$143:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$146
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$147:
Ljade_kem_kyber_kyber768_amd64_ref_dec$146:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$144
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$145:
Ljade_kem_kyber_kyber768_amd64_ref_dec$144:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$143
Ljade_kem_kyber_kyber768_amd64_ref_dec$141:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$142
movq $0, %rcx
movq $768, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$139
Ljade_kem_kyber_kyber768_amd64_ref_dec$140:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$139:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$140
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$137
movb $1, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$138
Ljade_kem_kyber_kyber768_amd64_ref_dec$137:
movb $1, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$138:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$136:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$134
Ljade_kem_kyber_kyber768_amd64_ref_dec$135:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$134:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$135
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$126
Ljade_kem_kyber_kyber768_amd64_ref_dec$127:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$133:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$128:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$131
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$132:
Ljade_kem_kyber_kyber768_amd64_ref_dec$131:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$129
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$130:
Ljade_kem_kyber_kyber768_amd64_ref_dec$129:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$128
Ljade_kem_kyber_kyber768_amd64_ref_dec$126:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$127
movq $0, %rcx
movq $1024, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$124
Ljade_kem_kyber_kyber768_amd64_ref_dec$125:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$124:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$125
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$122
movb $1, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$123
Ljade_kem_kyber_kyber768_amd64_ref_dec$122:
movb $2, 13240(%rsp)
movb $1, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$123:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$121:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$119
Ljade_kem_kyber_kyber768_amd64_ref_dec$120:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$119:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$120
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$111
Ljade_kem_kyber_kyber768_amd64_ref_dec$112:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$118:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$113:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$116
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$117:
Ljade_kem_kyber_kyber768_amd64_ref_dec$116:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$114
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$115:
Ljade_kem_kyber_kyber768_amd64_ref_dec$114:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$113
Ljade_kem_kyber_kyber768_amd64_ref_dec$111:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$112
movq $0, %rcx
movq $1280, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$109
Ljade_kem_kyber_kyber768_amd64_ref_dec$110:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$109:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$110
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$107
movb $2, 13240(%rsp)
movb $0, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$108
Ljade_kem_kyber_kyber768_amd64_ref_dec$107:
movb $0, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$108:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$106:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$104
Ljade_kem_kyber_kyber768_amd64_ref_dec$105:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$104:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$105
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$96
Ljade_kem_kyber_kyber768_amd64_ref_dec$97:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$103:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$98:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$101
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$102:
Ljade_kem_kyber_kyber768_amd64_ref_dec$101:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$99
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$100:
Ljade_kem_kyber_kyber768_amd64_ref_dec$99:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$98
Ljade_kem_kyber_kyber768_amd64_ref_dec$96:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$97
movq $0, %rcx
movq $1536, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$94
Ljade_kem_kyber_kyber768_amd64_ref_dec$95:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$94:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$95
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$92
movb $2, 13240(%rsp)
movb $1, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$93
Ljade_kem_kyber_kyber768_amd64_ref_dec$92:
movb $1, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$93:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$91:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$89
Ljade_kem_kyber_kyber768_amd64_ref_dec$90:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$89:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$90
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$81
Ljade_kem_kyber_kyber768_amd64_ref_dec$82:
movq %rcx, 40(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$88:
leaq 8(%rsp), %rsp
movq 40(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$83:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$86
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$87:
Ljade_kem_kyber_kyber768_amd64_ref_dec$86:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$84
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$85:
Ljade_kem_kyber_kyber768_amd64_ref_dec$84:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$83
Ljade_kem_kyber_kyber768_amd64_ref_dec$81:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$82
movq $0, %rcx
movq $1792, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$79
Ljade_kem_kyber_kyber768_amd64_ref_dec$80:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$79:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$80
movq 32(%rsp), %rcx
cmpq $0, %rcx
je Ljade_kem_kyber_kyber768_amd64_ref_dec$77
movb $2, 13240(%rsp)
movb $2, 13241(%rsp)
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$78
Ljade_kem_kyber_kyber768_amd64_ref_dec$77:
movb $2, 13240(%rsp)
movb $2, 13241(%rsp)
Ljade_kem_kyber_kyber768_amd64_ref_dec$78:
leaq 208(%rsp), %rcx
leaq 13208(%rsp), %rdx
call L_shake128_absorb34$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$76:
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$74
Ljade_kem_kyber_kyber768_amd64_ref_dec$75:
movq %rcx, 408(%rsp,%rcx,8)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$74:
cmpq $64, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$75
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$66
Ljade_kem_kyber_kyber768_amd64_ref_dec$67:
movq %rcx, 32(%rsp)
leaq 208(%rsp), %rcx
leaq 13242(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$73:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$68:
movzbw 13242(%rsp,%rdx), %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13242(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$71
movw %si, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$72:
Ljade_kem_kyber_kyber768_amd64_ref_dec$71:
cmpw $3329, %r8w
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69
cmpq $256, %rcx
jnb Ljade_kem_kyber_kyber768_amd64_ref_dec$69
movw %r8w, 408(%rsp,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$70:
Ljade_kem_kyber_kyber768_amd64_ref_dec$69:
cmpq $166, %rdx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$68
Ljade_kem_kyber_kyber768_amd64_ref_dec$66:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$67
movq $0, %rcx
movq $2048, %rdx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$64
Ljade_kem_kyber_kyber768_amd64_ref_dec$65:
movw 408(%rsp,%rcx,2), %si
movw %si, 8600(%rsp,%rdx,2)
incq %rcx
incq %rdx
Ljade_kem_kyber_kyber768_amd64_ref_dec$64:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$65
movb $0, %cl
leaq 3992(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$63:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 4504(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$62:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 5016(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$61:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 5528(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$60:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 6040(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$59:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 6552(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$58:
leaq 176(%rsp), %rsp
movb $6, %cl
leaq 408(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$57:
leaq 176(%rsp), %rsp
leaq 3992(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$56:
leaq 4504(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$55:
leaq 5016(%rsp), %rcx
call L_poly_ntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$54:
leaq 7064(%rsp), %rdi
leaq 8600(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$53:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 9112(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$52:
leaq 16(%rsp), %rsp
leaq 7064(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$51:
leaq 920(%rsp), %rdi
leaq 9624(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$50:
leaq 16(%rsp), %rsp
leaq 7064(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$49:
leaq 7064(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$47
Ljade_kem_kyber_kyber768_amd64_ref_dec$48:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$47:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$48
leaq 7576(%rsp), %rdi
leaq 10136(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$46:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 10648(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$45:
leaq 16(%rsp), %rsp
leaq 7576(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$44:
leaq 920(%rsp), %rdi
leaq 11160(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$43:
leaq 16(%rsp), %rsp
leaq 7576(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$42:
leaq 7576(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$40
Ljade_kem_kyber_kyber768_amd64_ref_dec$41:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$40:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$41
leaq 8088(%rsp), %rdi
leaq 11672(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$39:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rdi
leaq 12184(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$38:
leaq 16(%rsp), %rsp
leaq 8088(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$37:
leaq 920(%rsp), %rdi
leaq 12696(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$36:
leaq 16(%rsp), %rsp
leaq 8088(%rsp), %rcx
leaq 920(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$35:
leaq 8088(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$33
Ljade_kem_kyber_kyber768_amd64_ref_dec$34:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$33:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$34
leaq 920(%rsp), %rdi
leaq 2456(%rsp), %rcx
leaq 3992(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$32:
leaq 16(%rsp), %rsp
leaq 1944(%rsp), %rdi
leaq 2968(%rsp), %rcx
leaq 4504(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$31:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rcx
leaq 1944(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$30:
leaq 1944(%rsp), %rdi
leaq 3480(%rsp), %rcx
leaq 5016(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$29:
leaq 16(%rsp), %rsp
leaq 920(%rsp), %rcx
leaq 1944(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$28:
leaq 920(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$26
Ljade_kem_kyber_kyber768_amd64_ref_dec$27:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$26:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$27
leaq 7064(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$25:
leaq 7576(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$24:
leaq 8088(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$23:
leaq 920(%rsp), %rcx
call L_poly_invntt$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$22:
leaq 7064(%rsp), %rcx
leaq 5528(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$21:
leaq 7576(%rsp), %rcx
leaq 6040(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$20:
leaq 8088(%rsp), %rcx
leaq 6552(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$19:
leaq 920(%rsp), %rcx
leaq 408(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$18:
leaq 920(%rsp), %rcx
leaq 1432(%rsp), %rsi
call L_poly_add2$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$17:
leaq 7064(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$15
Ljade_kem_kyber_kyber768_amd64_ref_dec$16:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$15:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$16
leaq 7576(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$13
Ljade_kem_kyber_kyber768_amd64_ref_dec$14:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$13:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$14
leaq 8088(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$11
Ljade_kem_kyber_kyber768_amd64_ref_dec$12:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$11:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$12
leaq 920(%rsp), %rax
movq $0, %rcx
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$9
Ljade_kem_kyber_kyber768_amd64_ref_dec$10:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
Ljade_kem_kyber_kyber768_amd64_ref_dec$9:
cmpq $256, %rcx
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$10
movq 24(%rsp), %rax
movq %rax, %rdx
movq $0, %rsi
movq $0, %rdi
leaq 7064(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$8:
leaq 7576(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$7:
leaq 8088(%rsp), %rcx
call L_poly_csubq$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$6:
jmp Ljade_kem_kyber_kyber768_amd64_ref_dec$4
Ljade_kem_kyber_kyber768_amd64_ref_dec$5:
movzwq 7064(%rsp,%rsi,2), %rcx
incq %rsi
shlq $10, %rcx
addq $1665, %rcx
imulq $1290167, %rcx, %rcx
shrq $32, %rcx
andq $1023, %rcx
movzwq 7064(%rsp,%rsi,2), %r8
incq %rsi
shlq $10, %r8
addq $1665, %r8
imulq $1290167, %r8, %r8
shrq $32, %r8
andq $1023, %r8
movzwq 7064(%rsp,%rsi,2), %r9
incq %rsi
shlq $10, %r9
addq $1665, %r9
imulq $1290167, %r9, %r9
shrq $32, %r9
andq $1023, %r9
movzwq 7064(%rsp,%rsi,2), %r10
incq %rsi
shlq $10, %r10
addq $1665, %r10
imulq $1290167, %r10, %r10
shrq $32, %r10
andq $1023, %r10
movw %cx, %r11w
andw $255, %r11w
movb %r11b, (%rdx,%rdi)
incq %rdi
shrw $8, %cx
movw %r8w, %r11w
shlw $2, %r11w
orw %cx, %r11w
movb %r11b, (%rdx,%rdi)
incq %rdi
shrw $6, %r8w
movw %r9w, %cx
shlw $4, %cx
orw %r8w, %cx
movb %cl, (%rdx,%rdi)
incq %rdi
shrw $4, %r9w
movw %r10w, %cx
shlw $6, %cx
orw %r9w, %cx
movb %cl, (%rdx,%rdi)
incq %rdi
shrq $2, %r10
movb %r10b, (%rdx,%rdi)
incq %rdi
Ljade_kem_kyber_kyber768_amd64_ref_dec$4:
cmpq $768, %rsi
jb Ljade_kem_kyber_kyber768_amd64_ref_dec$5
leaq 960(%rax), %rax
leaq 920(%rsp), %rcx
call L_i_poly_compress$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$3:
movq 8(%rsp), %rsi
leaq 13410(%rsp), %rax
movq $0, %rcx
movb (%rax), %dl
movb (%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1(%rax), %dl
movb 1(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 2(%rax), %dl
movb 2(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 3(%rax), %dl
movb 3(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 4(%rax), %dl
movb 4(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 5(%rax), %dl
movb 5(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 6(%rax), %dl
movb 6(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 7(%rax), %dl
movb 7(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 8(%rax), %dl
movb 8(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 9(%rax), %dl
movb 9(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 10(%rax), %dl
movb 10(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 11(%rax), %dl
movb 11(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 12(%rax), %dl
movb 12(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 13(%rax), %dl
movb 13(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 14(%rax), %dl
movb 14(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 15(%rax), %dl
movb 15(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 16(%rax), %dl
movb 16(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 17(%rax), %dl
movb 17(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 18(%rax), %dl
movb 18(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 19(%rax), %dl
movb 19(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 20(%rax), %dl
movb 20(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 21(%rax), %dl
movb 21(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 22(%rax), %dl
movb 22(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 23(%rax), %dl
movb 23(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 24(%rax), %dl
movb 24(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 25(%rax), %dl
movb 25(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 26(%rax), %dl
movb 26(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 27(%rax), %dl
movb 27(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 28(%rax), %dl
movb 28(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 29(%rax), %dl
movb 29(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 30(%rax), %dl
movb 30(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 31(%rax), %dl
movb 31(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 32(%rax), %dl
movb 32(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 33(%rax), %dl
movb 33(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 34(%rax), %dl
movb 34(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 35(%rax), %dl
movb 35(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 36(%rax), %dl
movb 36(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 37(%rax), %dl
movb 37(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 38(%rax), %dl
movb 38(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 39(%rax), %dl
movb 39(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 40(%rax), %dl
movb 40(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 41(%rax), %dl
movb 41(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 42(%rax), %dl
movb 42(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 43(%rax), %dl
movb 43(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 44(%rax), %dl
movb 44(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 45(%rax), %dl
movb 45(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 46(%rax), %dl
movb 46(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 47(%rax), %dl
movb 47(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 48(%rax), %dl
movb 48(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 49(%rax), %dl
movb 49(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 50(%rax), %dl
movb 50(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 51(%rax), %dl
movb 51(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 52(%rax), %dl
movb 52(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 53(%rax), %dl
movb 53(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 54(%rax), %dl
movb 54(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 55(%rax), %dl
movb 55(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 56(%rax), %dl
movb 56(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 57(%rax), %dl
movb 57(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 58(%rax), %dl
movb 58(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 59(%rax), %dl
movb 59(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 60(%rax), %dl
movb 60(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 61(%rax), %dl
movb 61(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 62(%rax), %dl
movb 62(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 63(%rax), %dl
movb 63(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 64(%rax), %dl
movb 64(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 65(%rax), %dl
movb 65(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 66(%rax), %dl
movb 66(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 67(%rax), %dl
movb 67(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 68(%rax), %dl
movb 68(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 69(%rax), %dl
movb 69(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 70(%rax), %dl
movb 70(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 71(%rax), %dl
movb 71(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 72(%rax), %dl
movb 72(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 73(%rax), %dl
movb 73(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 74(%rax), %dl
movb 74(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 75(%rax), %dl
movb 75(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 76(%rax), %dl
movb 76(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 77(%rax), %dl
movb 77(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 78(%rax), %dl
movb 78(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 79(%rax), %dl
movb 79(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 80(%rax), %dl
movb 80(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 81(%rax), %dl
movb 81(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 82(%rax), %dl
movb 82(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 83(%rax), %dl
movb 83(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 84(%rax), %dl
movb 84(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 85(%rax), %dl
movb 85(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 86(%rax), %dl
movb 86(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 87(%rax), %dl
movb 87(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 88(%rax), %dl
movb 88(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 89(%rax), %dl
movb 89(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 90(%rax), %dl
movb 90(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 91(%rax), %dl
movb 91(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 92(%rax), %dl
movb 92(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 93(%rax), %dl
movb 93(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 94(%rax), %dl
movb 94(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 95(%rax), %dl
movb 95(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 96(%rax), %dl
movb 96(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 97(%rax), %dl
movb 97(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 98(%rax), %dl
movb 98(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 99(%rax), %dl
movb 99(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 100(%rax), %dl
movb 100(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 101(%rax), %dl
movb 101(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 102(%rax), %dl
movb 102(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 103(%rax), %dl
movb 103(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 104(%rax), %dl
movb 104(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 105(%rax), %dl
movb 105(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 106(%rax), %dl
movb 106(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 107(%rax), %dl
movb 107(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 108(%rax), %dl
movb 108(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 109(%rax), %dl
movb 109(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 110(%rax), %dl
movb 110(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 111(%rax), %dl
movb 111(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 112(%rax), %dl
movb 112(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 113(%rax), %dl
movb 113(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 114(%rax), %dl
movb 114(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 115(%rax), %dl
movb 115(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 116(%rax), %dl
movb 116(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 117(%rax), %dl
movb 117(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 118(%rax), %dl
movb 118(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 119(%rax), %dl
movb 119(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 120(%rax), %dl
movb 120(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 121(%rax), %dl
movb 121(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 122(%rax), %dl
movb 122(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 123(%rax), %dl
movb 123(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 124(%rax), %dl
movb 124(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 125(%rax), %dl
movb 125(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 126(%rax), %dl
movb 126(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 127(%rax), %dl
movb 127(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 128(%rax), %dl
movb 128(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 129(%rax), %dl
movb 129(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 130(%rax), %dl
movb 130(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 131(%rax), %dl
movb 131(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 132(%rax), %dl
movb 132(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 133(%rax), %dl
movb 133(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 134(%rax), %dl
movb 134(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 135(%rax), %dl
movb 135(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 136(%rax), %dl
movb 136(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 137(%rax), %dl
movb 137(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 138(%rax), %dl
movb 138(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 139(%rax), %dl
movb 139(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 140(%rax), %dl
movb 140(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 141(%rax), %dl
movb 141(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 142(%rax), %dl
movb 142(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 143(%rax), %dl
movb 143(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 144(%rax), %dl
movb 144(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 145(%rax), %dl
movb 145(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 146(%rax), %dl
movb 146(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 147(%rax), %dl
movb 147(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 148(%rax), %dl
movb 148(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 149(%rax), %dl
movb 149(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 150(%rax), %dl
movb 150(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 151(%rax), %dl
movb 151(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 152(%rax), %dl
movb 152(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 153(%rax), %dl
movb 153(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 154(%rax), %dl
movb 154(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 155(%rax), %dl
movb 155(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 156(%rax), %dl
movb 156(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 157(%rax), %dl
movb 157(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 158(%rax), %dl
movb 158(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 159(%rax), %dl
movb 159(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 160(%rax), %dl
movb 160(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 161(%rax), %dl
movb 161(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 162(%rax), %dl
movb 162(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 163(%rax), %dl
movb 163(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 164(%rax), %dl
movb 164(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 165(%rax), %dl
movb 165(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 166(%rax), %dl
movb 166(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 167(%rax), %dl
movb 167(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 168(%rax), %dl
movb 168(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 169(%rax), %dl
movb 169(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 170(%rax), %dl
movb 170(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 171(%rax), %dl
movb 171(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 172(%rax), %dl
movb 172(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 173(%rax), %dl
movb 173(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 174(%rax), %dl
movb 174(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 175(%rax), %dl
movb 175(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 176(%rax), %dl
movb 176(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 177(%rax), %dl
movb 177(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 178(%rax), %dl
movb 178(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 179(%rax), %dl
movb 179(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 180(%rax), %dl
movb 180(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 181(%rax), %dl
movb 181(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 182(%rax), %dl
movb 182(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 183(%rax), %dl
movb 183(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 184(%rax), %dl
movb 184(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 185(%rax), %dl
movb 185(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 186(%rax), %dl
movb 186(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 187(%rax), %dl
movb 187(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 188(%rax), %dl
movb 188(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 189(%rax), %dl
movb 189(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 190(%rax), %dl
movb 190(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 191(%rax), %dl
movb 191(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 192(%rax), %dl
movb 192(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 193(%rax), %dl
movb 193(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 194(%rax), %dl
movb 194(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 195(%rax), %dl
movb 195(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 196(%rax), %dl
movb 196(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 197(%rax), %dl
movb 197(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 198(%rax), %dl
movb 198(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 199(%rax), %dl
movb 199(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 200(%rax), %dl
movb 200(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 201(%rax), %dl
movb 201(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 202(%rax), %dl
movb 202(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 203(%rax), %dl
movb 203(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 204(%rax), %dl
movb 204(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 205(%rax), %dl
movb 205(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 206(%rax), %dl
movb 206(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 207(%rax), %dl
movb 207(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 208(%rax), %dl
movb 208(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 209(%rax), %dl
movb 209(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 210(%rax), %dl
movb 210(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 211(%rax), %dl
movb 211(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 212(%rax), %dl
movb 212(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 213(%rax), %dl
movb 213(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 214(%rax), %dl
movb 214(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 215(%rax), %dl
movb 215(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 216(%rax), %dl
movb 216(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 217(%rax), %dl
movb 217(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 218(%rax), %dl
movb 218(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 219(%rax), %dl
movb 219(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 220(%rax), %dl
movb 220(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 221(%rax), %dl
movb 221(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 222(%rax), %dl
movb 222(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 223(%rax), %dl
movb 223(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 224(%rax), %dl
movb 224(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 225(%rax), %dl
movb 225(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 226(%rax), %dl
movb 226(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 227(%rax), %dl
movb 227(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 228(%rax), %dl
movb 228(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 229(%rax), %dl
movb 229(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 230(%rax), %dl
movb 230(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 231(%rax), %dl
movb 231(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 232(%rax), %dl
movb 232(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 233(%rax), %dl
movb 233(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 234(%rax), %dl
movb 234(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 235(%rax), %dl
movb 235(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 236(%rax), %dl
movb 236(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 237(%rax), %dl
movb 237(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 238(%rax), %dl
movb 238(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 239(%rax), %dl
movb 239(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 240(%rax), %dl
movb 240(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 241(%rax), %dl
movb 241(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 242(%rax), %dl
movb 242(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 243(%rax), %dl
movb 243(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 244(%rax), %dl
movb 244(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 245(%rax), %dl
movb 245(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 246(%rax), %dl
movb 246(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 247(%rax), %dl
movb 247(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 248(%rax), %dl
movb 248(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 249(%rax), %dl
movb 249(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 250(%rax), %dl
movb 250(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 251(%rax), %dl
movb 251(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 252(%rax), %dl
movb 252(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 253(%rax), %dl
movb 253(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 254(%rax), %dl
movb 254(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 255(%rax), %dl
movb 255(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 256(%rax), %dl
movb 256(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 257(%rax), %dl
movb 257(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 258(%rax), %dl
movb 258(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 259(%rax), %dl
movb 259(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 260(%rax), %dl
movb 260(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 261(%rax), %dl
movb 261(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 262(%rax), %dl
movb 262(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 263(%rax), %dl
movb 263(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 264(%rax), %dl
movb 264(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 265(%rax), %dl
movb 265(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 266(%rax), %dl
movb 266(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 267(%rax), %dl
movb 267(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 268(%rax), %dl
movb 268(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 269(%rax), %dl
movb 269(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 270(%rax), %dl
movb 270(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 271(%rax), %dl
movb 271(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 272(%rax), %dl
movb 272(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 273(%rax), %dl
movb 273(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 274(%rax), %dl
movb 274(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 275(%rax), %dl
movb 275(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 276(%rax), %dl
movb 276(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 277(%rax), %dl
movb 277(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 278(%rax), %dl
movb 278(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 279(%rax), %dl
movb 279(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 280(%rax), %dl
movb 280(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 281(%rax), %dl
movb 281(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 282(%rax), %dl
movb 282(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 283(%rax), %dl
movb 283(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 284(%rax), %dl
movb 284(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 285(%rax), %dl
movb 285(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 286(%rax), %dl
movb 286(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 287(%rax), %dl
movb 287(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 288(%rax), %dl
movb 288(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 289(%rax), %dl
movb 289(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 290(%rax), %dl
movb 290(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 291(%rax), %dl
movb 291(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 292(%rax), %dl
movb 292(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 293(%rax), %dl
movb 293(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 294(%rax), %dl
movb 294(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 295(%rax), %dl
movb 295(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 296(%rax), %dl
movb 296(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 297(%rax), %dl
movb 297(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 298(%rax), %dl
movb 298(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 299(%rax), %dl
movb 299(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 300(%rax), %dl
movb 300(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 301(%rax), %dl
movb 301(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 302(%rax), %dl
movb 302(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 303(%rax), %dl
movb 303(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 304(%rax), %dl
movb 304(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 305(%rax), %dl
movb 305(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 306(%rax), %dl
movb 306(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 307(%rax), %dl
movb 307(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 308(%rax), %dl
movb 308(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 309(%rax), %dl
movb 309(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 310(%rax), %dl
movb 310(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 311(%rax), %dl
movb 311(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 312(%rax), %dl
movb 312(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 313(%rax), %dl
movb 313(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 314(%rax), %dl
movb 314(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 315(%rax), %dl
movb 315(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 316(%rax), %dl
movb 316(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 317(%rax), %dl
movb 317(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 318(%rax), %dl
movb 318(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 319(%rax), %dl
movb 319(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 320(%rax), %dl
movb 320(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 321(%rax), %dl
movb 321(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 322(%rax), %dl
movb 322(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 323(%rax), %dl
movb 323(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 324(%rax), %dl
movb 324(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 325(%rax), %dl
movb 325(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 326(%rax), %dl
movb 326(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 327(%rax), %dl
movb 327(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 328(%rax), %dl
movb 328(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 329(%rax), %dl
movb 329(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 330(%rax), %dl
movb 330(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 331(%rax), %dl
movb 331(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 332(%rax), %dl
movb 332(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 333(%rax), %dl
movb 333(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 334(%rax), %dl
movb 334(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 335(%rax), %dl
movb 335(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 336(%rax), %dl
movb 336(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 337(%rax), %dl
movb 337(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 338(%rax), %dl
movb 338(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 339(%rax), %dl
movb 339(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 340(%rax), %dl
movb 340(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 341(%rax), %dl
movb 341(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 342(%rax), %dl
movb 342(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 343(%rax), %dl
movb 343(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 344(%rax), %dl
movb 344(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 345(%rax), %dl
movb 345(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 346(%rax), %dl
movb 346(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 347(%rax), %dl
movb 347(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 348(%rax), %dl
movb 348(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 349(%rax), %dl
movb 349(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 350(%rax), %dl
movb 350(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 351(%rax), %dl
movb 351(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 352(%rax), %dl
movb 352(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 353(%rax), %dl
movb 353(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 354(%rax), %dl
movb 354(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 355(%rax), %dl
movb 355(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 356(%rax), %dl
movb 356(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 357(%rax), %dl
movb 357(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 358(%rax), %dl
movb 358(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 359(%rax), %dl
movb 359(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 360(%rax), %dl
movb 360(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 361(%rax), %dl
movb 361(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 362(%rax), %dl
movb 362(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 363(%rax), %dl
movb 363(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 364(%rax), %dl
movb 364(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 365(%rax), %dl
movb 365(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 366(%rax), %dl
movb 366(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 367(%rax), %dl
movb 367(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 368(%rax), %dl
movb 368(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 369(%rax), %dl
movb 369(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 370(%rax), %dl
movb 370(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 371(%rax), %dl
movb 371(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 372(%rax), %dl
movb 372(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 373(%rax), %dl
movb 373(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 374(%rax), %dl
movb 374(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 375(%rax), %dl
movb 375(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 376(%rax), %dl
movb 376(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 377(%rax), %dl
movb 377(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 378(%rax), %dl
movb 378(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 379(%rax), %dl
movb 379(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 380(%rax), %dl
movb 380(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 381(%rax), %dl
movb 381(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 382(%rax), %dl
movb 382(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 383(%rax), %dl
movb 383(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 384(%rax), %dl
movb 384(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 385(%rax), %dl
movb 385(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 386(%rax), %dl
movb 386(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 387(%rax), %dl
movb 387(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 388(%rax), %dl
movb 388(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 389(%rax), %dl
movb 389(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 390(%rax), %dl
movb 390(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 391(%rax), %dl
movb 391(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 392(%rax), %dl
movb 392(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 393(%rax), %dl
movb 393(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 394(%rax), %dl
movb 394(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 395(%rax), %dl
movb 395(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 396(%rax), %dl
movb 396(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 397(%rax), %dl
movb 397(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 398(%rax), %dl
movb 398(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 399(%rax), %dl
movb 399(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 400(%rax), %dl
movb 400(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 401(%rax), %dl
movb 401(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 402(%rax), %dl
movb 402(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 403(%rax), %dl
movb 403(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 404(%rax), %dl
movb 404(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 405(%rax), %dl
movb 405(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 406(%rax), %dl
movb 406(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 407(%rax), %dl
movb 407(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 408(%rax), %dl
movb 408(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 409(%rax), %dl
movb 409(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 410(%rax), %dl
movb 410(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 411(%rax), %dl
movb 411(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 412(%rax), %dl
movb 412(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 413(%rax), %dl
movb 413(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 414(%rax), %dl
movb 414(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 415(%rax), %dl
movb 415(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 416(%rax), %dl
movb 416(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 417(%rax), %dl
movb 417(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 418(%rax), %dl
movb 418(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 419(%rax), %dl
movb 419(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 420(%rax), %dl
movb 420(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 421(%rax), %dl
movb 421(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 422(%rax), %dl
movb 422(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 423(%rax), %dl
movb 423(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 424(%rax), %dl
movb 424(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 425(%rax), %dl
movb 425(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 426(%rax), %dl
movb 426(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 427(%rax), %dl
movb 427(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 428(%rax), %dl
movb 428(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 429(%rax), %dl
movb 429(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 430(%rax), %dl
movb 430(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 431(%rax), %dl
movb 431(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 432(%rax), %dl
movb 432(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 433(%rax), %dl
movb 433(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 434(%rax), %dl
movb 434(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 435(%rax), %dl
movb 435(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 436(%rax), %dl
movb 436(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 437(%rax), %dl
movb 437(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 438(%rax), %dl
movb 438(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 439(%rax), %dl
movb 439(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 440(%rax), %dl
movb 440(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 441(%rax), %dl
movb 441(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 442(%rax), %dl
movb 442(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 443(%rax), %dl
movb 443(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 444(%rax), %dl
movb 444(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 445(%rax), %dl
movb 445(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 446(%rax), %dl
movb 446(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 447(%rax), %dl
movb 447(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 448(%rax), %dl
movb 448(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 449(%rax), %dl
movb 449(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 450(%rax), %dl
movb 450(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 451(%rax), %dl
movb 451(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 452(%rax), %dl
movb 452(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 453(%rax), %dl
movb 453(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 454(%rax), %dl
movb 454(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 455(%rax), %dl
movb 455(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 456(%rax), %dl
movb 456(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 457(%rax), %dl
movb 457(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 458(%rax), %dl
movb 458(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 459(%rax), %dl
movb 459(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 460(%rax), %dl
movb 460(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 461(%rax), %dl
movb 461(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 462(%rax), %dl
movb 462(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 463(%rax), %dl
movb 463(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 464(%rax), %dl
movb 464(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 465(%rax), %dl
movb 465(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 466(%rax), %dl
movb 466(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 467(%rax), %dl
movb 467(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 468(%rax), %dl
movb 468(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 469(%rax), %dl
movb 469(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 470(%rax), %dl
movb 470(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 471(%rax), %dl
movb 471(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 472(%rax), %dl
movb 472(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 473(%rax), %dl
movb 473(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 474(%rax), %dl
movb 474(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 475(%rax), %dl
movb 475(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 476(%rax), %dl
movb 476(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 477(%rax), %dl
movb 477(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 478(%rax), %dl
movb 478(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 479(%rax), %dl
movb 479(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 480(%rax), %dl
movb 480(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 481(%rax), %dl
movb 481(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 482(%rax), %dl
movb 482(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 483(%rax), %dl
movb 483(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 484(%rax), %dl
movb 484(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 485(%rax), %dl
movb 485(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 486(%rax), %dl
movb 486(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 487(%rax), %dl
movb 487(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 488(%rax), %dl
movb 488(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 489(%rax), %dl
movb 489(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 490(%rax), %dl
movb 490(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 491(%rax), %dl
movb 491(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 492(%rax), %dl
movb 492(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 493(%rax), %dl
movb 493(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 494(%rax), %dl
movb 494(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 495(%rax), %dl
movb 495(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 496(%rax), %dl
movb 496(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 497(%rax), %dl
movb 497(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 498(%rax), %dl
movb 498(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 499(%rax), %dl
movb 499(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 500(%rax), %dl
movb 500(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 501(%rax), %dl
movb 501(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 502(%rax), %dl
movb 502(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 503(%rax), %dl
movb 503(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 504(%rax), %dl
movb 504(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 505(%rax), %dl
movb 505(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 506(%rax), %dl
movb 506(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 507(%rax), %dl
movb 507(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 508(%rax), %dl
movb 508(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 509(%rax), %dl
movb 509(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 510(%rax), %dl
movb 510(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 511(%rax), %dl
movb 511(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 512(%rax), %dl
movb 512(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 513(%rax), %dl
movb 513(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 514(%rax), %dl
movb 514(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 515(%rax), %dl
movb 515(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 516(%rax), %dl
movb 516(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 517(%rax), %dl
movb 517(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 518(%rax), %dl
movb 518(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 519(%rax), %dl
movb 519(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 520(%rax), %dl
movb 520(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 521(%rax), %dl
movb 521(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 522(%rax), %dl
movb 522(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 523(%rax), %dl
movb 523(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 524(%rax), %dl
movb 524(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 525(%rax), %dl
movb 525(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 526(%rax), %dl
movb 526(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 527(%rax), %dl
movb 527(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 528(%rax), %dl
movb 528(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 529(%rax), %dl
movb 529(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 530(%rax), %dl
movb 530(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 531(%rax), %dl
movb 531(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 532(%rax), %dl
movb 532(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 533(%rax), %dl
movb 533(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 534(%rax), %dl
movb 534(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 535(%rax), %dl
movb 535(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 536(%rax), %dl
movb 536(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 537(%rax), %dl
movb 537(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 538(%rax), %dl
movb 538(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 539(%rax), %dl
movb 539(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 540(%rax), %dl
movb 540(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 541(%rax), %dl
movb 541(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 542(%rax), %dl
movb 542(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 543(%rax), %dl
movb 543(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 544(%rax), %dl
movb 544(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 545(%rax), %dl
movb 545(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 546(%rax), %dl
movb 546(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 547(%rax), %dl
movb 547(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 548(%rax), %dl
movb 548(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 549(%rax), %dl
movb 549(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 550(%rax), %dl
movb 550(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 551(%rax), %dl
movb 551(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 552(%rax), %dl
movb 552(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 553(%rax), %dl
movb 553(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 554(%rax), %dl
movb 554(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 555(%rax), %dl
movb 555(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 556(%rax), %dl
movb 556(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 557(%rax), %dl
movb 557(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 558(%rax), %dl
movb 558(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 559(%rax), %dl
movb 559(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 560(%rax), %dl
movb 560(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 561(%rax), %dl
movb 561(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 562(%rax), %dl
movb 562(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 563(%rax), %dl
movb 563(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 564(%rax), %dl
movb 564(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 565(%rax), %dl
movb 565(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 566(%rax), %dl
movb 566(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 567(%rax), %dl
movb 567(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 568(%rax), %dl
movb 568(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 569(%rax), %dl
movb 569(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 570(%rax), %dl
movb 570(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 571(%rax), %dl
movb 571(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 572(%rax), %dl
movb 572(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 573(%rax), %dl
movb 573(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 574(%rax), %dl
movb 574(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 575(%rax), %dl
movb 575(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 576(%rax), %dl
movb 576(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 577(%rax), %dl
movb 577(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 578(%rax), %dl
movb 578(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 579(%rax), %dl
movb 579(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 580(%rax), %dl
movb 580(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 581(%rax), %dl
movb 581(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 582(%rax), %dl
movb 582(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 583(%rax), %dl
movb 583(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 584(%rax), %dl
movb 584(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 585(%rax), %dl
movb 585(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 586(%rax), %dl
movb 586(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 587(%rax), %dl
movb 587(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 588(%rax), %dl
movb 588(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 589(%rax), %dl
movb 589(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 590(%rax), %dl
movb 590(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 591(%rax), %dl
movb 591(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 592(%rax), %dl
movb 592(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 593(%rax), %dl
movb 593(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 594(%rax), %dl
movb 594(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 595(%rax), %dl
movb 595(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 596(%rax), %dl
movb 596(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 597(%rax), %dl
movb 597(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 598(%rax), %dl
movb 598(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 599(%rax), %dl
movb 599(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 600(%rax), %dl
movb 600(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 601(%rax), %dl
movb 601(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 602(%rax), %dl
movb 602(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 603(%rax), %dl
movb 603(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 604(%rax), %dl
movb 604(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 605(%rax), %dl
movb 605(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 606(%rax), %dl
movb 606(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 607(%rax), %dl
movb 607(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 608(%rax), %dl
movb 608(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 609(%rax), %dl
movb 609(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 610(%rax), %dl
movb 610(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 611(%rax), %dl
movb 611(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 612(%rax), %dl
movb 612(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 613(%rax), %dl
movb 613(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 614(%rax), %dl
movb 614(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 615(%rax), %dl
movb 615(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 616(%rax), %dl
movb 616(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 617(%rax), %dl
movb 617(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 618(%rax), %dl
movb 618(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 619(%rax), %dl
movb 619(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 620(%rax), %dl
movb 620(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 621(%rax), %dl
movb 621(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 622(%rax), %dl
movb 622(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 623(%rax), %dl
movb 623(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 624(%rax), %dl
movb 624(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 625(%rax), %dl
movb 625(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 626(%rax), %dl
movb 626(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 627(%rax), %dl
movb 627(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 628(%rax), %dl
movb 628(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 629(%rax), %dl
movb 629(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 630(%rax), %dl
movb 630(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 631(%rax), %dl
movb 631(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 632(%rax), %dl
movb 632(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 633(%rax), %dl
movb 633(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 634(%rax), %dl
movb 634(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 635(%rax), %dl
movb 635(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 636(%rax), %dl
movb 636(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 637(%rax), %dl
movb 637(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 638(%rax), %dl
movb 638(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 639(%rax), %dl
movb 639(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 640(%rax), %dl
movb 640(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 641(%rax), %dl
movb 641(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 642(%rax), %dl
movb 642(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 643(%rax), %dl
movb 643(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 644(%rax), %dl
movb 644(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 645(%rax), %dl
movb 645(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 646(%rax), %dl
movb 646(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 647(%rax), %dl
movb 647(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 648(%rax), %dl
movb 648(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 649(%rax), %dl
movb 649(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 650(%rax), %dl
movb 650(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 651(%rax), %dl
movb 651(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 652(%rax), %dl
movb 652(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 653(%rax), %dl
movb 653(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 654(%rax), %dl
movb 654(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 655(%rax), %dl
movb 655(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 656(%rax), %dl
movb 656(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 657(%rax), %dl
movb 657(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 658(%rax), %dl
movb 658(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 659(%rax), %dl
movb 659(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 660(%rax), %dl
movb 660(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 661(%rax), %dl
movb 661(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 662(%rax), %dl
movb 662(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 663(%rax), %dl
movb 663(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 664(%rax), %dl
movb 664(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 665(%rax), %dl
movb 665(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 666(%rax), %dl
movb 666(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 667(%rax), %dl
movb 667(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 668(%rax), %dl
movb 668(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 669(%rax), %dl
movb 669(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 670(%rax), %dl
movb 670(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 671(%rax), %dl
movb 671(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 672(%rax), %dl
movb 672(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 673(%rax), %dl
movb 673(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 674(%rax), %dl
movb 674(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 675(%rax), %dl
movb 675(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 676(%rax), %dl
movb 676(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 677(%rax), %dl
movb 677(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 678(%rax), %dl
movb 678(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 679(%rax), %dl
movb 679(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 680(%rax), %dl
movb 680(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 681(%rax), %dl
movb 681(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 682(%rax), %dl
movb 682(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 683(%rax), %dl
movb 683(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 684(%rax), %dl
movb 684(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 685(%rax), %dl
movb 685(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 686(%rax), %dl
movb 686(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 687(%rax), %dl
movb 687(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 688(%rax), %dl
movb 688(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 689(%rax), %dl
movb 689(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 690(%rax), %dl
movb 690(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 691(%rax), %dl
movb 691(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 692(%rax), %dl
movb 692(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 693(%rax), %dl
movb 693(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 694(%rax), %dl
movb 694(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 695(%rax), %dl
movb 695(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 696(%rax), %dl
movb 696(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 697(%rax), %dl
movb 697(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 698(%rax), %dl
movb 698(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 699(%rax), %dl
movb 699(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 700(%rax), %dl
movb 700(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 701(%rax), %dl
movb 701(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 702(%rax), %dl
movb 702(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 703(%rax), %dl
movb 703(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 704(%rax), %dl
movb 704(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 705(%rax), %dl
movb 705(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 706(%rax), %dl
movb 706(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 707(%rax), %dl
movb 707(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 708(%rax), %dl
movb 708(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 709(%rax), %dl
movb 709(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 710(%rax), %dl
movb 710(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 711(%rax), %dl
movb 711(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 712(%rax), %dl
movb 712(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 713(%rax), %dl
movb 713(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 714(%rax), %dl
movb 714(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 715(%rax), %dl
movb 715(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 716(%rax), %dl
movb 716(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 717(%rax), %dl
movb 717(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 718(%rax), %dl
movb 718(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 719(%rax), %dl
movb 719(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 720(%rax), %dl
movb 720(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 721(%rax), %dl
movb 721(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 722(%rax), %dl
movb 722(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 723(%rax), %dl
movb 723(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 724(%rax), %dl
movb 724(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 725(%rax), %dl
movb 725(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 726(%rax), %dl
movb 726(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 727(%rax), %dl
movb 727(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 728(%rax), %dl
movb 728(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 729(%rax), %dl
movb 729(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 730(%rax), %dl
movb 730(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 731(%rax), %dl
movb 731(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 732(%rax), %dl
movb 732(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 733(%rax), %dl
movb 733(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 734(%rax), %dl
movb 734(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 735(%rax), %dl
movb 735(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 736(%rax), %dl
movb 736(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 737(%rax), %dl
movb 737(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 738(%rax), %dl
movb 738(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 739(%rax), %dl
movb 739(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 740(%rax), %dl
movb 740(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 741(%rax), %dl
movb 741(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 742(%rax), %dl
movb 742(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 743(%rax), %dl
movb 743(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 744(%rax), %dl
movb 744(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 745(%rax), %dl
movb 745(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 746(%rax), %dl
movb 746(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 747(%rax), %dl
movb 747(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 748(%rax), %dl
movb 748(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 749(%rax), %dl
movb 749(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 750(%rax), %dl
movb 750(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 751(%rax), %dl
movb 751(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 752(%rax), %dl
movb 752(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 753(%rax), %dl
movb 753(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 754(%rax), %dl
movb 754(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 755(%rax), %dl
movb 755(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 756(%rax), %dl
movb 756(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 757(%rax), %dl
movb 757(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 758(%rax), %dl
movb 758(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 759(%rax), %dl
movb 759(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 760(%rax), %dl
movb 760(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 761(%rax), %dl
movb 761(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 762(%rax), %dl
movb 762(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 763(%rax), %dl
movb 763(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 764(%rax), %dl
movb 764(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 765(%rax), %dl
movb 765(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 766(%rax), %dl
movb 766(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 767(%rax), %dl
movb 767(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 768(%rax), %dl
movb 768(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 769(%rax), %dl
movb 769(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 770(%rax), %dl
movb 770(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 771(%rax), %dl
movb 771(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 772(%rax), %dl
movb 772(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 773(%rax), %dl
movb 773(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 774(%rax), %dl
movb 774(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 775(%rax), %dl
movb 775(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 776(%rax), %dl
movb 776(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 777(%rax), %dl
movb 777(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 778(%rax), %dl
movb 778(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 779(%rax), %dl
movb 779(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 780(%rax), %dl
movb 780(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 781(%rax), %dl
movb 781(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 782(%rax), %dl
movb 782(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 783(%rax), %dl
movb 783(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 784(%rax), %dl
movb 784(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 785(%rax), %dl
movb 785(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 786(%rax), %dl
movb 786(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 787(%rax), %dl
movb 787(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 788(%rax), %dl
movb 788(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 789(%rax), %dl
movb 789(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 790(%rax), %dl
movb 790(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 791(%rax), %dl
movb 791(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 792(%rax), %dl
movb 792(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 793(%rax), %dl
movb 793(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 794(%rax), %dl
movb 794(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 795(%rax), %dl
movb 795(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 796(%rax), %dl
movb 796(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 797(%rax), %dl
movb 797(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 798(%rax), %dl
movb 798(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 799(%rax), %dl
movb 799(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 800(%rax), %dl
movb 800(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 801(%rax), %dl
movb 801(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 802(%rax), %dl
movb 802(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 803(%rax), %dl
movb 803(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 804(%rax), %dl
movb 804(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 805(%rax), %dl
movb 805(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 806(%rax), %dl
movb 806(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 807(%rax), %dl
movb 807(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 808(%rax), %dl
movb 808(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 809(%rax), %dl
movb 809(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 810(%rax), %dl
movb 810(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 811(%rax), %dl
movb 811(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 812(%rax), %dl
movb 812(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 813(%rax), %dl
movb 813(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 814(%rax), %dl
movb 814(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 815(%rax), %dl
movb 815(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 816(%rax), %dl
movb 816(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 817(%rax), %dl
movb 817(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 818(%rax), %dl
movb 818(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 819(%rax), %dl
movb 819(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 820(%rax), %dl
movb 820(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 821(%rax), %dl
movb 821(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 822(%rax), %dl
movb 822(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 823(%rax), %dl
movb 823(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 824(%rax), %dl
movb 824(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 825(%rax), %dl
movb 825(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 826(%rax), %dl
movb 826(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 827(%rax), %dl
movb 827(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 828(%rax), %dl
movb 828(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 829(%rax), %dl
movb 829(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 830(%rax), %dl
movb 830(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 831(%rax), %dl
movb 831(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 832(%rax), %dl
movb 832(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 833(%rax), %dl
movb 833(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 834(%rax), %dl
movb 834(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 835(%rax), %dl
movb 835(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 836(%rax), %dl
movb 836(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 837(%rax), %dl
movb 837(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 838(%rax), %dl
movb 838(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 839(%rax), %dl
movb 839(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 840(%rax), %dl
movb 840(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 841(%rax), %dl
movb 841(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 842(%rax), %dl
movb 842(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 843(%rax), %dl
movb 843(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 844(%rax), %dl
movb 844(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 845(%rax), %dl
movb 845(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 846(%rax), %dl
movb 846(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 847(%rax), %dl
movb 847(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 848(%rax), %dl
movb 848(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 849(%rax), %dl
movb 849(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 850(%rax), %dl
movb 850(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 851(%rax), %dl
movb 851(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 852(%rax), %dl
movb 852(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 853(%rax), %dl
movb 853(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 854(%rax), %dl
movb 854(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 855(%rax), %dl
movb 855(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 856(%rax), %dl
movb 856(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 857(%rax), %dl
movb 857(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 858(%rax), %dl
movb 858(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 859(%rax), %dl
movb 859(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 860(%rax), %dl
movb 860(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 861(%rax), %dl
movb 861(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 862(%rax), %dl
movb 862(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 863(%rax), %dl
movb 863(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 864(%rax), %dl
movb 864(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 865(%rax), %dl
movb 865(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 866(%rax), %dl
movb 866(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 867(%rax), %dl
movb 867(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 868(%rax), %dl
movb 868(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 869(%rax), %dl
movb 869(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 870(%rax), %dl
movb 870(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 871(%rax), %dl
movb 871(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 872(%rax), %dl
movb 872(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 873(%rax), %dl
movb 873(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 874(%rax), %dl
movb 874(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 875(%rax), %dl
movb 875(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 876(%rax), %dl
movb 876(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 877(%rax), %dl
movb 877(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 878(%rax), %dl
movb 878(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 879(%rax), %dl
movb 879(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 880(%rax), %dl
movb 880(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 881(%rax), %dl
movb 881(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 882(%rax), %dl
movb 882(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 883(%rax), %dl
movb 883(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 884(%rax), %dl
movb 884(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 885(%rax), %dl
movb 885(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 886(%rax), %dl
movb 886(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 887(%rax), %dl
movb 887(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 888(%rax), %dl
movb 888(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 889(%rax), %dl
movb 889(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 890(%rax), %dl
movb 890(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 891(%rax), %dl
movb 891(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 892(%rax), %dl
movb 892(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 893(%rax), %dl
movb 893(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 894(%rax), %dl
movb 894(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 895(%rax), %dl
movb 895(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 896(%rax), %dl
movb 896(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 897(%rax), %dl
movb 897(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 898(%rax), %dl
movb 898(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 899(%rax), %dl
movb 899(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 900(%rax), %dl
movb 900(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 901(%rax), %dl
movb 901(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 902(%rax), %dl
movb 902(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 903(%rax), %dl
movb 903(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 904(%rax), %dl
movb 904(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 905(%rax), %dl
movb 905(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 906(%rax), %dl
movb 906(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 907(%rax), %dl
movb 907(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 908(%rax), %dl
movb 908(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 909(%rax), %dl
movb 909(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 910(%rax), %dl
movb 910(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 911(%rax), %dl
movb 911(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 912(%rax), %dl
movb 912(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 913(%rax), %dl
movb 913(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 914(%rax), %dl
movb 914(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 915(%rax), %dl
movb 915(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 916(%rax), %dl
movb 916(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 917(%rax), %dl
movb 917(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 918(%rax), %dl
movb 918(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 919(%rax), %dl
movb 919(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 920(%rax), %dl
movb 920(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 921(%rax), %dl
movb 921(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 922(%rax), %dl
movb 922(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 923(%rax), %dl
movb 923(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 924(%rax), %dl
movb 924(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 925(%rax), %dl
movb 925(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 926(%rax), %dl
movb 926(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 927(%rax), %dl
movb 927(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 928(%rax), %dl
movb 928(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 929(%rax), %dl
movb 929(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 930(%rax), %dl
movb 930(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 931(%rax), %dl
movb 931(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 932(%rax), %dl
movb 932(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 933(%rax), %dl
movb 933(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 934(%rax), %dl
movb 934(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 935(%rax), %dl
movb 935(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 936(%rax), %dl
movb 936(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 937(%rax), %dl
movb 937(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 938(%rax), %dl
movb 938(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 939(%rax), %dl
movb 939(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 940(%rax), %dl
movb 940(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 941(%rax), %dl
movb 941(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 942(%rax), %dl
movb 942(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 943(%rax), %dl
movb 943(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 944(%rax), %dl
movb 944(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 945(%rax), %dl
movb 945(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 946(%rax), %dl
movb 946(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 947(%rax), %dl
movb 947(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 948(%rax), %dl
movb 948(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 949(%rax), %dl
movb 949(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 950(%rax), %dl
movb 950(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 951(%rax), %dl
movb 951(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 952(%rax), %dl
movb 952(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 953(%rax), %dl
movb 953(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 954(%rax), %dl
movb 954(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 955(%rax), %dl
movb 955(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 956(%rax), %dl
movb 956(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 957(%rax), %dl
movb 957(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 958(%rax), %dl
movb 958(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 959(%rax), %dl
movb 959(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 960(%rax), %dl
movb 960(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 961(%rax), %dl
movb 961(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 962(%rax), %dl
movb 962(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 963(%rax), %dl
movb 963(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 964(%rax), %dl
movb 964(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 965(%rax), %dl
movb 965(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 966(%rax), %dl
movb 966(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 967(%rax), %dl
movb 967(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 968(%rax), %dl
movb 968(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 969(%rax), %dl
movb 969(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 970(%rax), %dl
movb 970(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 971(%rax), %dl
movb 971(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 972(%rax), %dl
movb 972(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 973(%rax), %dl
movb 973(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 974(%rax), %dl
movb 974(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 975(%rax), %dl
movb 975(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 976(%rax), %dl
movb 976(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 977(%rax), %dl
movb 977(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 978(%rax), %dl
movb 978(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 979(%rax), %dl
movb 979(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 980(%rax), %dl
movb 980(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 981(%rax), %dl
movb 981(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 982(%rax), %dl
movb 982(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 983(%rax), %dl
movb 983(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 984(%rax), %dl
movb 984(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 985(%rax), %dl
movb 985(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 986(%rax), %dl
movb 986(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 987(%rax), %dl
movb 987(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 988(%rax), %dl
movb 988(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 989(%rax), %dl
movb 989(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 990(%rax), %dl
movb 990(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 991(%rax), %dl
movb 991(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 992(%rax), %dl
movb 992(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 993(%rax), %dl
movb 993(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 994(%rax), %dl
movb 994(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 995(%rax), %dl
movb 995(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 996(%rax), %dl
movb 996(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 997(%rax), %dl
movb 997(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 998(%rax), %dl
movb 998(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 999(%rax), %dl
movb 999(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1000(%rax), %dl
movb 1000(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1001(%rax), %dl
movb 1001(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1002(%rax), %dl
movb 1002(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1003(%rax), %dl
movb 1003(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1004(%rax), %dl
movb 1004(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1005(%rax), %dl
movb 1005(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1006(%rax), %dl
movb 1006(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1007(%rax), %dl
movb 1007(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1008(%rax), %dl
movb 1008(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1009(%rax), %dl
movb 1009(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1010(%rax), %dl
movb 1010(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1011(%rax), %dl
movb 1011(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1012(%rax), %dl
movb 1012(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1013(%rax), %dl
movb 1013(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1014(%rax), %dl
movb 1014(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1015(%rax), %dl
movb 1015(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1016(%rax), %dl
movb 1016(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1017(%rax), %dl
movb 1017(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1018(%rax), %dl
movb 1018(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1019(%rax), %dl
movb 1019(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1020(%rax), %dl
movb 1020(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1021(%rax), %dl
movb 1021(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1022(%rax), %dl
movb 1022(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1023(%rax), %dl
movb 1023(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1024(%rax), %dl
movb 1024(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1025(%rax), %dl
movb 1025(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1026(%rax), %dl
movb 1026(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1027(%rax), %dl
movb 1027(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1028(%rax), %dl
movb 1028(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1029(%rax), %dl
movb 1029(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1030(%rax), %dl
movb 1030(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1031(%rax), %dl
movb 1031(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1032(%rax), %dl
movb 1032(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1033(%rax), %dl
movb 1033(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1034(%rax), %dl
movb 1034(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1035(%rax), %dl
movb 1035(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1036(%rax), %dl
movb 1036(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1037(%rax), %dl
movb 1037(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1038(%rax), %dl
movb 1038(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1039(%rax), %dl
movb 1039(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1040(%rax), %dl
movb 1040(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1041(%rax), %dl
movb 1041(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1042(%rax), %dl
movb 1042(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1043(%rax), %dl
movb 1043(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1044(%rax), %dl
movb 1044(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1045(%rax), %dl
movb 1045(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1046(%rax), %dl
movb 1046(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1047(%rax), %dl
movb 1047(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1048(%rax), %dl
movb 1048(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1049(%rax), %dl
movb 1049(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1050(%rax), %dl
movb 1050(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1051(%rax), %dl
movb 1051(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1052(%rax), %dl
movb 1052(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1053(%rax), %dl
movb 1053(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1054(%rax), %dl
movb 1054(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1055(%rax), %dl
movb 1055(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1056(%rax), %dl
movb 1056(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1057(%rax), %dl
movb 1057(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1058(%rax), %dl
movb 1058(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1059(%rax), %dl
movb 1059(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1060(%rax), %dl
movb 1060(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1061(%rax), %dl
movb 1061(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1062(%rax), %dl
movb 1062(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1063(%rax), %dl
movb 1063(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1064(%rax), %dl
movb 1064(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1065(%rax), %dl
movb 1065(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1066(%rax), %dl
movb 1066(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1067(%rax), %dl
movb 1067(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1068(%rax), %dl
movb 1068(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1069(%rax), %dl
movb 1069(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1070(%rax), %dl
movb 1070(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1071(%rax), %dl
movb 1071(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1072(%rax), %dl
movb 1072(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1073(%rax), %dl
movb 1073(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1074(%rax), %dl
movb 1074(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1075(%rax), %dl
movb 1075(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1076(%rax), %dl
movb 1076(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1077(%rax), %dl
movb 1077(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1078(%rax), %dl
movb 1078(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1079(%rax), %dl
movb 1079(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1080(%rax), %dl
movb 1080(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1081(%rax), %dl
movb 1081(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1082(%rax), %dl
movb 1082(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1083(%rax), %dl
movb 1083(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1084(%rax), %dl
movb 1084(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1085(%rax), %dl
movb 1085(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1086(%rax), %dl
movb 1086(%rsi), %dil
xorb %dil, %dl
movzbq %dl, %rdx
orq %rdx, %rcx
movb 1087(%rax), %al
movb 1087(%rsi), %dl
xorb %dl, %al
movzbq %al, %rax
orq %rax, %rcx
negq %rcx
shrq $63, %rcx
movq 16(%rsp), %rax
addq $64, %rax
addq $2304, %rax
leaq 144(%rsp), %rdx
negq %rcx
movb (%rdx), %dil
movb (%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, (%rdx)
movb 1(%rdx), %dil
movb 1(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 1(%rdx)
movb 2(%rdx), %dil
movb 2(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 2(%rdx)
movb 3(%rdx), %dil
movb 3(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 3(%rdx)
movb 4(%rdx), %dil
movb 4(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 4(%rdx)
movb 5(%rdx), %dil
movb 5(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 5(%rdx)
movb 6(%rdx), %dil
movb 6(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 6(%rdx)
movb 7(%rdx), %dil
movb 7(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 7(%rdx)
movb 8(%rdx), %dil
movb 8(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 8(%rdx)
movb 9(%rdx), %dil
movb 9(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 9(%rdx)
movb 10(%rdx), %dil
movb 10(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 10(%rdx)
movb 11(%rdx), %dil
movb 11(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 11(%rdx)
movb 12(%rdx), %dil
movb 12(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 12(%rdx)
movb 13(%rdx), %dil
movb 13(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 13(%rdx)
movb 14(%rdx), %dil
movb 14(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 14(%rdx)
movb 15(%rdx), %dil
movb 15(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 15(%rdx)
movb 16(%rdx), %dil
movb 16(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 16(%rdx)
movb 17(%rdx), %dil
movb 17(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 17(%rdx)
movb 18(%rdx), %dil
movb 18(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 18(%rdx)
movb 19(%rdx), %dil
movb 19(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 19(%rdx)
movb 20(%rdx), %dil
movb 20(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 20(%rdx)
movb 21(%rdx), %dil
movb 21(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 21(%rdx)
movb 22(%rdx), %dil
movb 22(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 22(%rdx)
movb 23(%rdx), %dil
movb 23(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 23(%rdx)
movb 24(%rdx), %dil
movb 24(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 24(%rdx)
movb 25(%rdx), %dil
movb 25(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 25(%rdx)
movb 26(%rdx), %dil
movb 26(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 26(%rdx)
movb 27(%rdx), %dil
movb 27(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 27(%rdx)
movb 28(%rdx), %dil
movb 28(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 28(%rdx)
movb 29(%rdx), %dil
movb 29(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 29(%rdx)
movb 30(%rdx), %dil
movb 30(%rax), %r8b
xorb %dil, %r8b
andb %cl, %r8b
xorb %r8b, %dil
movb %dil, 30(%rdx)
movb 31(%rdx), %dil
movb 31(%rax), %al
xorb %dil, %al
andb %cl, %al
xorb %al, %dil
movb %dil, 31(%rdx)
movq $1088, %rax
leaq 176(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$2:
leaq 232(%rsp), %rsp
movq (%rsp), %rax
movq $32, %rcx
leaq 144(%rsp), %rdx
leaq -216(%rsp), %rsp
call L_shake256_64$1
Ljade_kem_kyber_kyber768_amd64_ref_dec$1:
leaq 216(%rsp), %rsp
xorq %rax, %rax
movq 14504(%rsp), %r15
movq 14512(%rsp), %r14
movq 14520(%rsp), %r13
movq 14528(%rsp), %r12
movq 14536(%rsp), %rbp
movq 14544(%rsp), %rbx
movq 14552(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_ref_enc_derand:
jade_kem_kyber_kyber768_amd64_ref_enc_derand:
movq %rsp, %rax
leaq -88(%rsp), %rsp
andq $-8, %rsp
movq %rax, 80(%rsp)
movq %r15, 32(%rsp)
movq %r14, 40(%rsp)
movq %r13, 48(%rsp)
movq %r12, 56(%rsp)
movq %rbp, 64(%rsp)
movq %rbx, 72(%rsp)
movq %rsp, %rax
movb (%rcx), %r8b
movb %r8b, (%rax)
movb 1(%rcx), %r8b
movb %r8b, 1(%rax)
movb 2(%rcx), %r8b
movb %r8b, 2(%rax)
movb 3(%rcx), %r8b
movb %r8b, 3(%rax)
movb 4(%rcx), %r8b
movb %r8b, 4(%rax)
movb 5(%rcx), %r8b
movb %r8b, 5(%rax)
movb 6(%rcx), %r8b
movb %r8b, 6(%rax)
movb 7(%rcx), %r8b
movb %r8b, 7(%rax)
movb 8(%rcx), %r8b
movb %r8b, 8(%rax)
movb 9(%rcx), %r8b
movb %r8b, 9(%rax)
movb 10(%rcx), %r8b
movb %r8b, 10(%rax)
movb 11(%rcx), %r8b
movb %r8b, 11(%rax)
movb 12(%rcx), %r8b
movb %r8b, 12(%rax)
movb 13(%rcx), %r8b
movb %r8b, 13(%rax)
movb 14(%rcx), %r8b
movb %r8b, 14(%rax)
movb 15(%rcx), %r8b
movb %r8b, 15(%rax)
movb 16(%rcx), %r8b
movb %r8b, 16(%rax)
movb 17(%rcx), %r8b
movb %r8b, 17(%rax)
movb 18(%rcx), %r8b
movb %r8b, 18(%rax)
movb 19(%rcx), %r8b
movb %r8b, 19(%rax)
movb 20(%rcx), %r8b
movb %r8b, 20(%rax)
movb 21(%rcx), %r8b
movb %r8b, 21(%rax)
movb 22(%rcx), %r8b
movb %r8b, 22(%rax)
movb 23(%rcx), %r8b
movb %r8b, 23(%rax)
movb 24(%rcx), %r8b
movb %r8b, 24(%rax)
movb 25(%rcx), %r8b
movb %r8b, 25(%rax)
movb 26(%rcx), %r8b
movb %r8b, 26(%rax)
movb 27(%rcx), %r8b
movb %r8b, 27(%rax)
movb 28(%rcx), %r8b
movb %r8b, 28(%rax)
movb 29(%rcx), %r8b
movb %r8b, 29(%rax)
movb 30(%rcx), %r8b
movb %r8b, 30(%rax)
movb 31(%rcx), %cl
movb %cl, 31(%rax)
movq %rsp, %rax
leaq -13400(%rsp), %rsp
call L_crypto_kem_enc_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_ref_enc_derand$1:
leaq 13400(%rsp), %rsp
xorq %rax, %rax
movq 32(%rsp), %r15
movq 40(%rsp), %r14
movq 48(%rsp), %r13
movq 56(%rsp), %r12
movq 64(%rsp), %rbp
movq 72(%rsp), %rbx
movq 80(%rsp), %rsp
ret
_jade_kem_kyber_kyber768_amd64_ref_keypair_derand:
jade_kem_kyber_kyber768_amd64_ref_keypair_derand:
movq %rsp, %rax
leaq -120(%rsp), %rsp
andq $-8, %rsp
movq %rax, 112(%rsp)
movq %r15, 64(%rsp)
movq %r14, 72(%rsp)
movq %r13, 80(%rsp)
movq %r12, 88(%rsp)
movq %rbp, 96(%rsp)
movq %rbx, 104(%rsp)
movq %rsp, %rax
movb (%rdx), %cl
movb %cl, (%rax)
movb 1(%rdx), %cl
movb %cl, 1(%rax)
movb 2(%rdx), %cl
movb %cl, 2(%rax)
movb 3(%rdx), %cl
movb %cl, 3(%rax)
movb 4(%rdx), %cl
movb %cl, 4(%rax)
movb 5(%rdx), %cl
movb %cl, 5(%rax)
movb 6(%rdx), %cl
movb %cl, 6(%rax)
movb 7(%rdx), %cl
movb %cl, 7(%rax)
movb 8(%rdx), %cl
movb %cl, 8(%rax)
movb 9(%rdx), %cl
movb %cl, 9(%rax)
movb 10(%rdx), %cl
movb %cl, 10(%rax)
movb 11(%rdx), %cl
movb %cl, 11(%rax)
movb 12(%rdx), %cl
movb %cl, 12(%rax)
movb 13(%rdx), %cl
movb %cl, 13(%rax)
movb 14(%rdx), %cl
movb %cl, 14(%rax)
movb 15(%rdx), %cl
movb %cl, 15(%rax)
movb 16(%rdx), %cl
movb %cl, 16(%rax)
movb 17(%rdx), %cl
movb %cl, 17(%rax)
movb 18(%rdx), %cl
movb %cl, 18(%rax)
movb 19(%rdx), %cl
movb %cl, 19(%rax)
movb 20(%rdx), %cl
movb %cl, 20(%rax)
movb 21(%rdx), %cl
movb %cl, 21(%rax)
movb 22(%rdx), %cl
movb %cl, 22(%rax)
movb 23(%rdx), %cl
movb %cl, 23(%rax)
movb 24(%rdx), %cl
movb %cl, 24(%rax)
movb 25(%rdx), %cl
movb %cl, 25(%rax)
movb 26(%rdx), %cl
movb %cl, 26(%rax)
movb 27(%rdx), %cl
movb %cl, 27(%rax)
movb 28(%rdx), %cl
movb %cl, 28(%rax)
movb 29(%rdx), %cl
movb %cl, 29(%rax)
movb 30(%rdx), %cl
movb %cl, 30(%rax)
movb 31(%rdx), %cl
movb %cl, 31(%rax)
movb 32(%rdx), %cl
movb %cl, 32(%rax)
movb 33(%rdx), %cl
movb %cl, 33(%rax)
movb 34(%rdx), %cl
movb %cl, 34(%rax)
movb 35(%rdx), %cl
movb %cl, 35(%rax)
movb 36(%rdx), %cl
movb %cl, 36(%rax)
movb 37(%rdx), %cl
movb %cl, 37(%rax)
movb 38(%rdx), %cl
movb %cl, 38(%rax)
movb 39(%rdx), %cl
movb %cl, 39(%rax)
movb 40(%rdx), %cl
movb %cl, 40(%rax)
movb 41(%rdx), %cl
movb %cl, 41(%rax)
movb 42(%rdx), %cl
movb %cl, 42(%rax)
movb 43(%rdx), %cl
movb %cl, 43(%rax)
movb 44(%rdx), %cl
movb %cl, 44(%rax)
movb 45(%rdx), %cl
movb %cl, 45(%rax)
movb 46(%rdx), %cl
movb %cl, 46(%rax)
movb 47(%rdx), %cl
movb %cl, 47(%rax)
movb 48(%rdx), %cl
movb %cl, 48(%rax)
movb 49(%rdx), %cl
movb %cl, 49(%rax)
movb 50(%rdx), %cl
movb %cl, 50(%rax)
movb 51(%rdx), %cl
movb %cl, 51(%rax)
movb 52(%rdx), %cl
movb %cl, 52(%rax)
movb 53(%rdx), %cl
movb %cl, 53(%rax)
movb 54(%rdx), %cl
movb %cl, 54(%rax)
movb 55(%rdx), %cl
movb %cl, 55(%rax)
movb 56(%rdx), %cl
movb %cl, 56(%rax)
movb 57(%rdx), %cl
movb %cl, 57(%rax)
movb 58(%rdx), %cl
movb %cl, 58(%rax)
movb 59(%rdx), %cl
movb %cl, 59(%rax)
movb 60(%rdx), %cl
movb %cl, 60(%rax)
movb 61(%rdx), %cl
movb %cl, 61(%rax)
movb 62(%rdx), %cl
movb %cl, 62(%rax)
movb 63(%rdx), %cl
movb %cl, 63(%rax)
movq %rsp, %rax
leaq -10320(%rsp), %rsp
call L_crypto_kem_keypair_derand_jazz$1
Ljade_kem_kyber_kyber768_amd64_ref_keypair_derand$1:
leaq 10320(%rsp), %rsp
xorq %rax, %rax
movq 64(%rsp), %r15
movq 72(%rsp), %r14
movq 80(%rsp), %r13
movq 88(%rsp), %r12
movq 96(%rsp), %rbp
movq 104(%rsp), %rbx
movq 112(%rsp), %rsp
ret
L_crypto_kem_enc_derand_jazz$1:
movq %rdx, 8(%rsp)
movq %rdi, 16(%rsp)
movq %rsi, 24(%rsp)
movq (%rax), %rcx
movq %rcx, 72(%rsp)
movq 8(%rax), %rcx
movq %rcx, 80(%rsp)
movq 16(%rax), %rcx
movq %rcx, 88(%rsp)
movq 24(%rax), %rax
movq %rax, 96(%rsp)
leaq 136(%rsp), %rax
leaq 72(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_256_32$1
L_crypto_kem_enc_derand_jazz$208:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rsi
movq $1184, %rax
leaq 168(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_enc_derand_jazz$207:
leaq 232(%rsp), %rsp
leaq 72(%rsp), %rax
leaq 136(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_sha3_512_64$1
L_crypto_kem_enc_derand_jazz$206:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rdx
leaq 136(%rsp), %rcx
leaq 104(%rsp), %rax
movq %rdx, %rsi
leaq 2448(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$205:
addq $384, %rsi
leaq 2960(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$204:
addq $384, %rsi
leaq 3472(%rsp), %rdi
call L_poly_frombytes$1
L_crypto_kem_enc_derand_jazz$203:
movq $0, %rsi
addq $1152, %rdx
jmp L_crypto_kem_enc_derand_jazz$201
L_crypto_kem_enc_derand_jazz$202:
movq (%rdx), %rdi
movq %rdi, 40(%rsp,%rsi,8)
addq $8, %rdx
incq %rsi
L_crypto_kem_enc_derand_jazz$201:
cmpq $4, %rsi
jb L_crypto_kem_enc_derand_jazz$202
leaq 912(%rsp), %rdx
call L_i_poly_frommsg$1
L_crypto_kem_enc_derand_jazz$200:
movq $1, %rcx
movq %rcx, 8(%rsp)
movb 40(%rsp), %cl
movb %cl, 13200(%rsp)
movb 41(%rsp), %cl
movb %cl, 13201(%rsp)
movb 42(%rsp), %cl
movb %cl, 13202(%rsp)
movb 43(%rsp), %cl
movb %cl, 13203(%rsp)
movb 44(%rsp), %cl
movb %cl, 13204(%rsp)
movb 45(%rsp), %cl
movb %cl, 13205(%rsp)
movb 46(%rsp), %cl
movb %cl, 13206(%rsp)
movb 47(%rsp), %cl
movb %cl, 13207(%rsp)
movb 48(%rsp), %cl
movb %cl, 13208(%rsp)
movb 49(%rsp), %cl
movb %cl, 13209(%rsp)
movb 50(%rsp), %cl
movb %cl, 13210(%rsp)
movb 51(%rsp), %cl
movb %cl, 13211(%rsp)
movb 52(%rsp), %cl
movb %cl, 13212(%rsp)
movb 53(%rsp), %cl
movb %cl, 13213(%rsp)
movb 54(%rsp), %cl
movb %cl, 13214(%rsp)
movb 55(%rsp), %cl
movb %cl, 13215(%rsp)
movb 56(%rsp), %cl
movb %cl, 13216(%rsp)
movb 57(%rsp), %cl
movb %cl, 13217(%rsp)
movb 58(%rsp), %cl
movb %cl, 13218(%rsp)
movb 59(%rsp), %cl
movb %cl, 13219(%rsp)
movb 60(%rsp), %cl
movb %cl, 13220(%rsp)
movb 61(%rsp), %cl
movb %cl, 13221(%rsp)
movb 62(%rsp), %cl
movb %cl, 13222(%rsp)
movb 63(%rsp), %cl
movb %cl, 13223(%rsp)
movb 64(%rsp), %cl
movb %cl, 13224(%rsp)
movb 65(%rsp), %cl
movb %cl, 13225(%rsp)
movb 66(%rsp), %cl
movb %cl, 13226(%rsp)
movb 67(%rsp), %cl
movb %cl, 13227(%rsp)
movb 68(%rsp), %cl
movb %cl, 13228(%rsp)
movb 69(%rsp), %cl
movb %cl, 13229(%rsp)
movb 70(%rsp), %cl
movb %cl, 13230(%rsp)
movb 71(%rsp), %cl
movb %cl, 13231(%rsp)
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$198
movb $0, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$199
L_crypto_kem_enc_derand_jazz$198:
movb $0, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$199:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$197:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$195
L_crypto_kem_enc_derand_jazz$196:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$195:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$196
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$187
L_crypto_kem_enc_derand_jazz$188:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$194:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$189:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$192
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$192
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$193:
L_crypto_kem_enc_derand_jazz$192:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$190
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$190
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$191:
L_crypto_kem_enc_derand_jazz$190:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$189
L_crypto_kem_enc_derand_jazz$187:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$188
movq $0, %rcx
movq $0, %rdx
jmp L_crypto_kem_enc_derand_jazz$185
L_crypto_kem_enc_derand_jazz$186:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$185:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$186
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$183
movb $0, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$184
L_crypto_kem_enc_derand_jazz$183:
movb $1, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$184:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$182:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$180
L_crypto_kem_enc_derand_jazz$181:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$180:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$181
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$172
L_crypto_kem_enc_derand_jazz$173:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$179:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$174:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$177
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$177
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$178:
L_crypto_kem_enc_derand_jazz$177:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$175
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$175
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$176:
L_crypto_kem_enc_derand_jazz$175:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$174
L_crypto_kem_enc_derand_jazz$172:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$173
movq $0, %rcx
movq $256, %rdx
jmp L_crypto_kem_enc_derand_jazz$170
L_crypto_kem_enc_derand_jazz$171:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$170:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$171
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$168
movb $0, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$169
L_crypto_kem_enc_derand_jazz$168:
movb $2, 13232(%rsp)
movb $0, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$169:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$167:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$165
L_crypto_kem_enc_derand_jazz$166:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$165:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$166
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$157
L_crypto_kem_enc_derand_jazz$158:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$164:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$159:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$162
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$162
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$163:
L_crypto_kem_enc_derand_jazz$162:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$160
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$160
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$161:
L_crypto_kem_enc_derand_jazz$160:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$159
L_crypto_kem_enc_derand_jazz$157:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$158
movq $0, %rcx
movq $512, %rdx
jmp L_crypto_kem_enc_derand_jazz$155
L_crypto_kem_enc_derand_jazz$156:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$155:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$156
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$153
movb $1, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$154
L_crypto_kem_enc_derand_jazz$153:
movb $0, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$154:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$152:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$150
L_crypto_kem_enc_derand_jazz$151:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$150:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$151
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$142
L_crypto_kem_enc_derand_jazz$143:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$149:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$144:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$147
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$147
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$148:
L_crypto_kem_enc_derand_jazz$147:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$145
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$145
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$146:
L_crypto_kem_enc_derand_jazz$145:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$144
L_crypto_kem_enc_derand_jazz$142:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$143
movq $0, %rcx
movq $768, %rdx
jmp L_crypto_kem_enc_derand_jazz$140
L_crypto_kem_enc_derand_jazz$141:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$140:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$141
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$138
movb $1, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$139
L_crypto_kem_enc_derand_jazz$138:
movb $1, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$139:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$137:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$135
L_crypto_kem_enc_derand_jazz$136:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$135:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$136
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$127
L_crypto_kem_enc_derand_jazz$128:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$134:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$129:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$132
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$132
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$133:
L_crypto_kem_enc_derand_jazz$132:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$130
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$130
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$131:
L_crypto_kem_enc_derand_jazz$130:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$129
L_crypto_kem_enc_derand_jazz$127:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$128
movq $0, %rcx
movq $1024, %rdx
jmp L_crypto_kem_enc_derand_jazz$125
L_crypto_kem_enc_derand_jazz$126:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$125:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$126
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$123
movb $1, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$124
L_crypto_kem_enc_derand_jazz$123:
movb $2, 13232(%rsp)
movb $1, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$124:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$122:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$120
L_crypto_kem_enc_derand_jazz$121:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$120:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$121
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$112
L_crypto_kem_enc_derand_jazz$113:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$119:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$114:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$117
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$117
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$118:
L_crypto_kem_enc_derand_jazz$117:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$115
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$115
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$116:
L_crypto_kem_enc_derand_jazz$115:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$114
L_crypto_kem_enc_derand_jazz$112:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$113
movq $0, %rcx
movq $1280, %rdx
jmp L_crypto_kem_enc_derand_jazz$110
L_crypto_kem_enc_derand_jazz$111:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$110:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$111
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$108
movb $2, 13232(%rsp)
movb $0, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$109
L_crypto_kem_enc_derand_jazz$108:
movb $0, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$109:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$107:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$105
L_crypto_kem_enc_derand_jazz$106:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$105:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$106
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$97
L_crypto_kem_enc_derand_jazz$98:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$104:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$99:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$102
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$102
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$103:
L_crypto_kem_enc_derand_jazz$102:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$100
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$100
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$101:
L_crypto_kem_enc_derand_jazz$100:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$99
L_crypto_kem_enc_derand_jazz$97:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$98
movq $0, %rcx
movq $1536, %rdx
jmp L_crypto_kem_enc_derand_jazz$95
L_crypto_kem_enc_derand_jazz$96:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$95:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$96
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$93
movb $2, 13232(%rsp)
movb $1, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$94
L_crypto_kem_enc_derand_jazz$93:
movb $1, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$94:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$92:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$90
L_crypto_kem_enc_derand_jazz$91:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$90:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$91
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$82
L_crypto_kem_enc_derand_jazz$83:
movq %rcx, 32(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$89:
leaq 8(%rsp), %rsp
movq 32(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$84:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$87
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$87
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$88:
L_crypto_kem_enc_derand_jazz$87:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$85
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$85
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$86:
L_crypto_kem_enc_derand_jazz$85:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$84
L_crypto_kem_enc_derand_jazz$82:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$83
movq $0, %rcx
movq $1792, %rdx
jmp L_crypto_kem_enc_derand_jazz$80
L_crypto_kem_enc_derand_jazz$81:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$80:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$81
movq 8(%rsp), %rcx
cmpq $0, %rcx
je L_crypto_kem_enc_derand_jazz$78
movb $2, 13232(%rsp)
movb $2, 13233(%rsp)
jmp L_crypto_kem_enc_derand_jazz$79
L_crypto_kem_enc_derand_jazz$78:
movb $2, 13232(%rsp)
movb $2, 13233(%rsp)
L_crypto_kem_enc_derand_jazz$79:
leaq 200(%rsp), %rcx
leaq 13200(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_enc_derand_jazz$77:
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$75
L_crypto_kem_enc_derand_jazz$76:
movq %rcx, 400(%rsp,%rcx,8)
incq %rcx
L_crypto_kem_enc_derand_jazz$75:
cmpq $64, %rcx
jb L_crypto_kem_enc_derand_jazz$76
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$67
L_crypto_kem_enc_derand_jazz$68:
movq %rcx, 8(%rsp)
leaq 200(%rsp), %rcx
leaq 13234(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_enc_derand_jazz$74:
leaq 8(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdx
L_crypto_kem_enc_derand_jazz$69:
movzbw 13234(%rsp,%rdx), %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
movw %di, %r8w
shrw $4, %r8w
andw $15, %di
shlw $8, %di
orw %di, %si
incq %rdx
movzbw 13234(%rsp,%rdx), %di
shlw $4, %di
orw %di, %r8w
incq %rdx
cmpw $3329, %si
jnb L_crypto_kem_enc_derand_jazz$72
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$72
movw %si, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$73:
L_crypto_kem_enc_derand_jazz$72:
cmpw $3329, %r8w
jnb L_crypto_kem_enc_derand_jazz$70
cmpq $256, %rcx
jnb L_crypto_kem_enc_derand_jazz$70
movw %r8w, 400(%rsp,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$71:
L_crypto_kem_enc_derand_jazz$70:
cmpq $166, %rdx
jb L_crypto_kem_enc_derand_jazz$69
L_crypto_kem_enc_derand_jazz$67:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$68
movq $0, %rcx
movq $2048, %rdx
jmp L_crypto_kem_enc_derand_jazz$65
L_crypto_kem_enc_derand_jazz$66:
movw 400(%rsp,%rcx,2), %si
movw %si, 8592(%rsp,%rdx,2)
incq %rcx
incq %rdx
L_crypto_kem_enc_derand_jazz$65:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$66
movb $0, %cl
leaq 3984(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$64:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 4496(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$63:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 5008(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$62:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 5520(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$61:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 6032(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$60:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 6544(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$59:
leaq 176(%rsp), %rsp
movb $6, %cl
leaq 400(%rsp), %rdx
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_enc_derand_jazz$58:
leaq 176(%rsp), %rsp
leaq 3984(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$57:
leaq 4496(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$56:
leaq 5008(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_enc_derand_jazz$55:
leaq 7056(%rsp), %rdi
leaq 8592(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$54:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 9104(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$53:
leaq 16(%rsp), %rsp
leaq 7056(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$52:
leaq 1424(%rsp), %rdi
leaq 9616(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$51:
leaq 16(%rsp), %rsp
leaq 7056(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$50:
leaq 7056(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$48
L_crypto_kem_enc_derand_jazz$49:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$48:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$49
leaq 7568(%rsp), %rdi
leaq 10128(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$47:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 10640(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$46:
leaq 16(%rsp), %rsp
leaq 7568(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$45:
leaq 1424(%rsp), %rdi
leaq 11152(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$44:
leaq 16(%rsp), %rsp
leaq 7568(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$43:
leaq 7568(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$41
L_crypto_kem_enc_derand_jazz$42:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$41:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$42
leaq 8080(%rsp), %rdi
leaq 11664(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$40:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rdi
leaq 12176(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$39:
leaq 16(%rsp), %rsp
leaq 8080(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$38:
leaq 1424(%rsp), %rdi
leaq 12688(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$37:
leaq 16(%rsp), %rsp
leaq 8080(%rsp), %rcx
leaq 1424(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$36:
leaq 8080(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$34
L_crypto_kem_enc_derand_jazz$35:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$34:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$35
leaq 1424(%rsp), %rdi
leaq 2448(%rsp), %rcx
leaq 3984(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$33:
leaq 16(%rsp), %rsp
leaq 1936(%rsp), %rdi
leaq 2960(%rsp), %rcx
leaq 4496(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$32:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rcx
leaq 1936(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$31:
leaq 1936(%rsp), %rdi
leaq 3472(%rsp), %rcx
leaq 5008(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_enc_derand_jazz$30:
leaq 16(%rsp), %rsp
leaq 1424(%rsp), %rcx
leaq 1936(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$29:
leaq 1424(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$27
L_crypto_kem_enc_derand_jazz$28:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$27:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$28
leaq 7056(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$26:
leaq 7568(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$25:
leaq 8080(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$24:
leaq 1424(%rsp), %rcx
call L_poly_invntt$1
L_crypto_kem_enc_derand_jazz$23:
leaq 7056(%rsp), %rcx
leaq 5520(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$22:
leaq 7568(%rsp), %rcx
leaq 6032(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$21:
leaq 8080(%rsp), %rcx
leaq 6544(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$20:
leaq 1424(%rsp), %rcx
leaq 400(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$19:
leaq 1424(%rsp), %rcx
leaq 912(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_enc_derand_jazz$18:
leaq 7056(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$16
L_crypto_kem_enc_derand_jazz$17:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$16:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$17
leaq 7568(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$14
L_crypto_kem_enc_derand_jazz$15:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$14:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$15
leaq 8080(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$12
L_crypto_kem_enc_derand_jazz$13:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$12:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$13
leaq 1424(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_enc_derand_jazz$10
L_crypto_kem_enc_derand_jazz$11:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_enc_derand_jazz$10:
cmpq $256, %rcx
jb L_crypto_kem_enc_derand_jazz$11
movq 16(%rsp), %rax
movq $0, %rdx
movq $0, %rsi
leaq 7056(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$9:
leaq 7568(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$8:
leaq 8080(%rsp), %rcx
call L_poly_csubq$1
L_crypto_kem_enc_derand_jazz$7:
jmp L_crypto_kem_enc_derand_jazz$5
L_crypto_kem_enc_derand_jazz$6:
movzwq 7056(%rsp,%rdx,2), %rcx
incq %rdx
shlq $10, %rcx
addq $1665, %rcx
imulq $1290167, %rcx, %rcx
shrq $32, %rcx
andq $1023, %rcx
movzwq 7056(%rsp,%rdx,2), %rdi
incq %rdx
shlq $10, %rdi
addq $1665, %rdi
imulq $1290167, %rdi, %rdi
shrq $32, %rdi
andq $1023, %rdi
movzwq 7056(%rsp,%rdx,2), %r8
incq %rdx
shlq $10, %r8
addq $1665, %r8
imulq $1290167, %r8, %r8
shrq $32, %r8
andq $1023, %r8
movzwq 7056(%rsp,%rdx,2), %r9
incq %rdx
shlq $10, %r9
addq $1665, %r9
imulq $1290167, %r9, %r9
shrq $32, %r9
andq $1023, %r9
movw %cx, %r10w
andw $255, %r10w
movb %r10b, (%rax,%rsi)
incq %rsi
shrw $8, %cx
movw %di, %r10w
shlw $2, %r10w
orw %cx, %r10w
movb %r10b, (%rax,%rsi)
incq %rsi
shrw $6, %di
movw %r8w, %cx
shlw $4, %cx
orw %di, %cx
movb %cl, (%rax,%rsi)
incq %rsi
shrw $4, %r8w
movw %r9w, %cx
shlw $6, %cx
orw %r8w, %cx
movb %cl, (%rax,%rsi)
incq %rsi
shrq $2, %r9
movb %r9b, (%rax,%rsi)
incq %rsi
L_crypto_kem_enc_derand_jazz$5:
cmpq $768, %rdx
jb L_crypto_kem_enc_derand_jazz$6
addq $960, %rax
leaq 1424(%rsp), %rcx
call L_poly_compress$1
L_crypto_kem_enc_derand_jazz$4:
movq 16(%rsp), %rsi
movq $1088, %rax
leaq 104(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_enc_derand_jazz$3:
leaq 232(%rsp), %rsp
movq 24(%rsp), %rax
movq $32, %rcx
leaq 72(%rsp), %rdx
leaq -216(%rsp), %rsp
call L_shake256_64$1
L_crypto_kem_enc_derand_jazz$2:
leaq 216(%rsp), %rsp
ret
L_crypto_kem_keypair_derand_jazz$1:
movq %rax, 8(%rsp)
movq %rdi, 16(%rsp)
movq %rsi, 24(%rsp)
movq %rdi, 32(%rsp)
movq %rsi, 40(%rsp)
movq (%rax), %rcx
movq %rcx, 64(%rsp)
movq 8(%rax), %rcx
movq %rcx, 72(%rsp)
movq 16(%rax), %rcx
movq %rcx, 80(%rsp)
movq 24(%rax), %rax
movq %rax, 88(%rsp)
leaq 128(%rsp), %rcx
leaq 64(%rsp), %rax
leaq -208(%rsp), %rsp
call L_sha3_512_32$1
L_crypto_kem_keypair_derand_jazz$189:
leaq 208(%rsp), %rsp
movq 128(%rsp), %rax
movq %rax, 96(%rsp)
movq 160(%rsp), %rax
movq %rax, 64(%rsp)
movq 136(%rsp), %rax
movq %rax, 104(%rsp)
movq 168(%rsp), %rax
movq %rax, 72(%rsp)
movq 144(%rsp), %rax
movq %rax, 112(%rsp)
movq 176(%rsp), %rax
movq %rax, 80(%rsp)
movq 152(%rsp), %rax
movq %rax, 120(%rsp)
movq 184(%rsp), %rax
movq %rax, 88(%rsp)
movq $0, %rax
movq %rax, 48(%rsp)
movb 96(%rsp), %al
movb %al, 10120(%rsp)
movb 97(%rsp), %al
movb %al, 10121(%rsp)
movb 98(%rsp), %al
movb %al, 10122(%rsp)
movb 99(%rsp), %al
movb %al, 10123(%rsp)
movb 100(%rsp), %al
movb %al, 10124(%rsp)
movb 101(%rsp), %al
movb %al, 10125(%rsp)
movb 102(%rsp), %al
movb %al, 10126(%rsp)
movb 103(%rsp), %al
movb %al, 10127(%rsp)
movb 104(%rsp), %al
movb %al, 10128(%rsp)
movb 105(%rsp), %al
movb %al, 10129(%rsp)
movb 106(%rsp), %al
movb %al, 10130(%rsp)
movb 107(%rsp), %al
movb %al, 10131(%rsp)
movb 108(%rsp), %al
movb %al, 10132(%rsp)
movb 109(%rsp), %al
movb %al, 10133(%rsp)
movb 110(%rsp), %al
movb %al, 10134(%rsp)
movb 111(%rsp), %al
movb %al, 10135(%rsp)
movb 112(%rsp), %al
movb %al, 10136(%rsp)
movb 113(%rsp), %al
movb %al, 10137(%rsp)
movb 114(%rsp), %al
movb %al, 10138(%rsp)
movb 115(%rsp), %al
movb %al, 10139(%rsp)
movb 116(%rsp), %al
movb %al, 10140(%rsp)
movb 117(%rsp), %al
movb %al, 10141(%rsp)
movb 118(%rsp), %al
movb %al, 10142(%rsp)
movb 119(%rsp), %al
movb %al, 10143(%rsp)
movb 120(%rsp), %al
movb %al, 10144(%rsp)
movb 121(%rsp), %al
movb %al, 10145(%rsp)
movb 122(%rsp), %al
movb %al, 10146(%rsp)
movb 123(%rsp), %al
movb %al, 10147(%rsp)
movb 124(%rsp), %al
movb %al, 10148(%rsp)
movb 125(%rsp), %al
movb %al, 10149(%rsp)
movb 126(%rsp), %al
movb %al, 10150(%rsp)
movb 127(%rsp), %al
movb %al, 10151(%rsp)
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$187
movb $0, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$188
L_crypto_kem_keypair_derand_jazz$187:
movb $0, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$188:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$186:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$184
L_crypto_kem_keypair_derand_jazz$185:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$184:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$185
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$176
L_crypto_kem_keypair_derand_jazz$177:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$183:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$178:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$181
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$181
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$182:
L_crypto_kem_keypair_derand_jazz$181:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$179
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$179
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$180:
L_crypto_kem_keypair_derand_jazz$179:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$178
L_crypto_kem_keypair_derand_jazz$176:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$177
movq $0, %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$174
L_crypto_kem_keypair_derand_jazz$175:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$174:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$175
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$172
movb $0, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$173
L_crypto_kem_keypair_derand_jazz$172:
movb $1, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$173:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$171:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$169
L_crypto_kem_keypair_derand_jazz$170:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$169:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$170
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$161
L_crypto_kem_keypair_derand_jazz$162:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$168:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$163:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$166
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$166
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$167:
L_crypto_kem_keypair_derand_jazz$166:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$164
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$164
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$165:
L_crypto_kem_keypair_derand_jazz$164:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$163
L_crypto_kem_keypair_derand_jazz$161:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$162
movq $0, %rax
movq $256, %rcx
jmp L_crypto_kem_keypair_derand_jazz$159
L_crypto_kem_keypair_derand_jazz$160:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$159:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$160
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$157
movb $0, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$158
L_crypto_kem_keypair_derand_jazz$157:
movb $2, 10152(%rsp)
movb $0, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$158:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$156:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$154
L_crypto_kem_keypair_derand_jazz$155:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$154:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$155
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$146
L_crypto_kem_keypair_derand_jazz$147:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$153:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$148:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$151
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$151
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$152:
L_crypto_kem_keypair_derand_jazz$151:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$149
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$149
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$150:
L_crypto_kem_keypair_derand_jazz$149:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$148
L_crypto_kem_keypair_derand_jazz$146:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$147
movq $0, %rax
movq $512, %rcx
jmp L_crypto_kem_keypair_derand_jazz$144
L_crypto_kem_keypair_derand_jazz$145:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$144:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$145
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$142
movb $1, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$143
L_crypto_kem_keypair_derand_jazz$142:
movb $0, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$143:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$141:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$139
L_crypto_kem_keypair_derand_jazz$140:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$139:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$140
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$131
L_crypto_kem_keypair_derand_jazz$132:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$138:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$133:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$136
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$136
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$137:
L_crypto_kem_keypair_derand_jazz$136:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$134
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$134
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$135:
L_crypto_kem_keypair_derand_jazz$134:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$133
L_crypto_kem_keypair_derand_jazz$131:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$132
movq $0, %rax
movq $768, %rcx
jmp L_crypto_kem_keypair_derand_jazz$129
L_crypto_kem_keypair_derand_jazz$130:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$129:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$130
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$127
movb $1, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$128
L_crypto_kem_keypair_derand_jazz$127:
movb $1, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$128:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$126:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$124
L_crypto_kem_keypair_derand_jazz$125:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$124:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$125
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$116
L_crypto_kem_keypair_derand_jazz$117:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$123:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$118:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$121
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$121
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$122:
L_crypto_kem_keypair_derand_jazz$121:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$119
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$119
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$120:
L_crypto_kem_keypair_derand_jazz$119:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$118
L_crypto_kem_keypair_derand_jazz$116:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$117
movq $0, %rax
movq $1024, %rcx
jmp L_crypto_kem_keypair_derand_jazz$114
L_crypto_kem_keypair_derand_jazz$115:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$114:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$115
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$112
movb $1, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$113
L_crypto_kem_keypair_derand_jazz$112:
movb $2, 10152(%rsp)
movb $1, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$113:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$111:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$109
L_crypto_kem_keypair_derand_jazz$110:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$109:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$110
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$101
L_crypto_kem_keypair_derand_jazz$102:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$108:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$103:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$106
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$106
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$107:
L_crypto_kem_keypair_derand_jazz$106:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$104
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$104
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$105:
L_crypto_kem_keypair_derand_jazz$104:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$103
L_crypto_kem_keypair_derand_jazz$101:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$102
movq $0, %rax
movq $1280, %rcx
jmp L_crypto_kem_keypair_derand_jazz$99
L_crypto_kem_keypair_derand_jazz$100:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$99:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$100
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$97
movb $2, 10152(%rsp)
movb $0, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$98
L_crypto_kem_keypair_derand_jazz$97:
movb $0, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$98:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$96:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$94
L_crypto_kem_keypair_derand_jazz$95:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$94:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$95
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$86
L_crypto_kem_keypair_derand_jazz$87:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$93:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$88:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$91
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$91
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$92:
L_crypto_kem_keypair_derand_jazz$91:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$89
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$89
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$90:
L_crypto_kem_keypair_derand_jazz$89:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$88
L_crypto_kem_keypair_derand_jazz$86:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$87
movq $0, %rax
movq $1536, %rcx
jmp L_crypto_kem_keypair_derand_jazz$84
L_crypto_kem_keypair_derand_jazz$85:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$84:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$85
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$82
movb $2, 10152(%rsp)
movb $1, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$83
L_crypto_kem_keypair_derand_jazz$82:
movb $1, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$83:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$81:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$79
L_crypto_kem_keypair_derand_jazz$80:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$79:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$80
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$71
L_crypto_kem_keypair_derand_jazz$72:
movq %rax, 56(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$78:
leaq 8(%rsp), %rsp
movq 56(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$73:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$76
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$76
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$77:
L_crypto_kem_keypair_derand_jazz$76:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$74
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$74
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$75:
L_crypto_kem_keypair_derand_jazz$74:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$73
L_crypto_kem_keypair_derand_jazz$71:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$72
movq $0, %rax
movq $1792, %rcx
jmp L_crypto_kem_keypair_derand_jazz$69
L_crypto_kem_keypair_derand_jazz$70:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$69:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$70
movq 48(%rsp), %rax
cmpq $0, %rax
je L_crypto_kem_keypair_derand_jazz$67
movb $2, 10152(%rsp)
movb $2, 10153(%rsp)
jmp L_crypto_kem_keypair_derand_jazz$68
L_crypto_kem_keypair_derand_jazz$67:
movb $2, 10152(%rsp)
movb $2, 10153(%rsp)
L_crypto_kem_keypair_derand_jazz$68:
leaq 192(%rsp), %rcx
leaq 10120(%rsp), %rdx
call L_shake128_absorb34$1
L_crypto_kem_keypair_derand_jazz$66:
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$64
L_crypto_kem_keypair_derand_jazz$65:
movq %rax, 392(%rsp,%rax,8)
incq %rax
L_crypto_kem_keypair_derand_jazz$64:
cmpq $64, %rax
jb L_crypto_kem_keypair_derand_jazz$65
movq $0, %rax
jmp L_crypto_kem_keypair_derand_jazz$56
L_crypto_kem_keypair_derand_jazz$57:
movq %rax, 48(%rsp)
leaq 192(%rsp), %rcx
leaq 10154(%rsp), %rdx
leaq -8(%rsp), %rsp
call L_shake128_squeezeblock$1
L_crypto_kem_keypair_derand_jazz$63:
leaq 8(%rsp), %rsp
movq 48(%rsp), %rax
movq $0, %rcx
L_crypto_kem_keypair_derand_jazz$58:
movzbw 10154(%rsp,%rcx), %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
movw %si, %di
shrw $4, %di
andw $15, %si
shlw $8, %si
orw %si, %dx
incq %rcx
movzbw 10154(%rsp,%rcx), %si
shlw $4, %si
orw %si, %di
incq %rcx
cmpw $3329, %dx
jnb L_crypto_kem_keypair_derand_jazz$61
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$61
movw %dx, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$62:
L_crypto_kem_keypair_derand_jazz$61:
cmpw $3329, %di
jnb L_crypto_kem_keypair_derand_jazz$59
cmpq $256, %rax
jnb L_crypto_kem_keypair_derand_jazz$59
movw %di, 392(%rsp,%rax,2)
incq %rax
L_crypto_kem_keypair_derand_jazz$60:
L_crypto_kem_keypair_derand_jazz$59:
cmpq $166, %rcx
jb L_crypto_kem_keypair_derand_jazz$58
L_crypto_kem_keypair_derand_jazz$56:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$57
movq $0, %rax
movq $2048, %rcx
jmp L_crypto_kem_keypair_derand_jazz$54
L_crypto_kem_keypair_derand_jazz$55:
movw 392(%rsp,%rax,2), %dx
movw %dx, 5512(%rsp,%rcx,2)
incq %rax
incq %rcx
L_crypto_kem_keypair_derand_jazz$54:
cmpq $256, %rax
jb L_crypto_kem_keypair_derand_jazz$55
movb $0, %cl
leaq 904(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$53:
leaq 176(%rsp), %rsp
movb $1, %cl
leaq 1416(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$52:
leaq 176(%rsp), %rsp
movb $2, %cl
leaq 1928(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$51:
leaq 176(%rsp), %rsp
movb $3, %cl
leaq 2440(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$50:
leaq 176(%rsp), %rsp
movb $4, %cl
leaq 2952(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$49:
leaq 176(%rsp), %rsp
movb $5, %cl
leaq 3464(%rsp), %rdx
leaq 64(%rsp), %rax
leaq -176(%rsp), %rsp
call L_poly_getnoise$1
L_crypto_kem_keypair_derand_jazz$48:
leaq 176(%rsp), %rsp
leaq 904(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$47:
leaq 1416(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$46:
leaq 1928(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$45:
leaq 2440(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$44:
leaq 2952(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$43:
leaq 3464(%rsp), %rcx
call L_poly_ntt$1
L_crypto_kem_keypair_derand_jazz$42:
leaq 3976(%rsp), %rdi
leaq 5512(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$41:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 6024(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$40:
leaq 16(%rsp), %rsp
leaq 3976(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$39:
leaq 392(%rsp), %rdi
leaq 6536(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$38:
leaq 16(%rsp), %rsp
leaq 3976(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$37:
leaq 3976(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$35
L_crypto_kem_keypair_derand_jazz$36:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$35:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$36
leaq 3976(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$34:
leaq 4488(%rsp), %rdi
leaq 7048(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$33:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 7560(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$32:
leaq 16(%rsp), %rsp
leaq 4488(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$31:
leaq 392(%rsp), %rdi
leaq 8072(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$30:
leaq 16(%rsp), %rsp
leaq 4488(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$29:
leaq 4488(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$27
L_crypto_kem_keypair_derand_jazz$28:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$27:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$28
leaq 4488(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$26:
leaq 5000(%rsp), %rdi
leaq 8584(%rsp), %rcx
leaq 904(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$25:
leaq 16(%rsp), %rsp
leaq 392(%rsp), %rdi
leaq 9096(%rsp), %rcx
leaq 1416(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$24:
leaq 16(%rsp), %rsp
leaq 5000(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$23:
leaq 392(%rsp), %rdi
leaq 9608(%rsp), %rcx
leaq 1928(%rsp), %rsi
leaq -16(%rsp), %rsp
call L_poly_basemul$1
L_crypto_kem_keypair_derand_jazz$22:
leaq 16(%rsp), %rsp
leaq 5000(%rsp), %rcx
leaq 392(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$21:
leaq 5000(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$19
L_crypto_kem_keypair_derand_jazz$20:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$19:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$20
leaq 5000(%rsp), %rax
call L_poly_frommont$1
L_crypto_kem_keypair_derand_jazz$18:
leaq 3976(%rsp), %rcx
leaq 2440(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$17:
leaq 4488(%rsp), %rcx
leaq 2952(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$16:
leaq 5000(%rsp), %rcx
leaq 3464(%rsp), %rsi
call L_poly_add2$1
L_crypto_kem_keypair_derand_jazz$15:
leaq 3976(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$13
L_crypto_kem_keypair_derand_jazz$14:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$13:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$14
leaq 4488(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$11
L_crypto_kem_keypair_derand_jazz$12:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$11:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$12
leaq 5000(%rsp), %rax
movq $0, %rcx
jmp L_crypto_kem_keypair_derand_jazz$9
L_crypto_kem_keypair_derand_jazz$10:
movw (%rax,%rcx,2), %dx
movswl %dx, %esi
imull $20159, %esi, %esi
sarl $26, %esi
imull $3329, %esi, %esi
subw %si, %dx
movw %dx, (%rax,%rcx,2)
incq %rcx
L_crypto_kem_keypair_derand_jazz$9:
cmpq $256, %rcx
jb L_crypto_kem_keypair_derand_jazz$10
movq 32(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
leaq 904(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$8:
addq $384, %rdx
leaq 1416(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$7:
addq $384, %rdx
leaq 1928(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$6:
movq %rax, %rdx
leaq 3976(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$5:
addq $384, %rdx
leaq 4488(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$4:
addq $384, %rdx
leaq 5000(%rsp), %rcx
call L_poly_tobytes$1
L_crypto_kem_keypair_derand_jazz$3:
addq $1152, %rax
movq 96(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 104(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 112(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 120(%rsp), %rcx
movq %rcx, (%rax)
movq 24(%rsp), %rax
addq $1152, %rax
movq 16(%rsp), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 32(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 40(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 48(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 56(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 64(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 72(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 80(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 88(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 96(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 176(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 184(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 192(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 200(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 208(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 216(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 224(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 232(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 240(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 248(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 256(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 264(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 272(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 280(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 288(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 296(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 304(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 312(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 320(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 328(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 336(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 344(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 352(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 360(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 368(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 376(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 384(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 392(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 400(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 408(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 416(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 424(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 432(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 440(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 448(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 456(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 464(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 472(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 480(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 488(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 496(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 504(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 512(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 520(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 528(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 536(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 544(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 552(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 560(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 568(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 576(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 584(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 592(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 600(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 608(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 616(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 624(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 632(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 640(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 648(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 656(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 664(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 672(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 680(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 688(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 696(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 704(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 712(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 720(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 728(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 736(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 744(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 752(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 760(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 768(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 776(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 784(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 792(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 800(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 808(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 816(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 824(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 832(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 840(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 848(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 856(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 864(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 872(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 880(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 888(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 896(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 904(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 912(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 920(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 928(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 936(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 944(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 952(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 960(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 968(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 976(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 984(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 992(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1000(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1008(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1016(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1024(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1032(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1040(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1048(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1056(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1064(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1072(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1080(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1088(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1096(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1104(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1112(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1120(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1128(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1136(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1144(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1152(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1160(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1168(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 1176(%rcx), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq %rax, 24(%rsp)
movq 16(%rsp), %rsi
movq $1184, %rax
leaq 96(%rsp), %rcx
leaq -232(%rsp), %rsp
call L_sha3_256$1
L_crypto_kem_keypair_derand_jazz$2:
leaq 232(%rsp), %rsp
movq 24(%rsp), %rax
movq 96(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 104(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 112(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 120(%rsp), %rcx
movq %rcx, (%rax)
addq $8, %rax
movq 8(%rsp), %rcx
leaq 32(%rcx), %rcx
movq (%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 8(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 16(%rcx), %rdx
movq %rdx, (%rax)
addq $8, %rax
movq 24(%rcx), %rcx
movq %rcx, (%rax)
ret
L_i_poly_tomsg$1:
call L_poly_csubq$1
L_i_poly_tomsg$2:
movb $0, %sil
movw (%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 2(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 4(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 6(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 8(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 10(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 12(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 14(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, (%rax)
movb $0, %sil
movw 16(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 18(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 20(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 22(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 24(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 26(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 28(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 30(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 1(%rax)
movb $0, %sil
movw 32(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 34(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 36(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 38(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 40(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 42(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 44(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 46(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 2(%rax)
movb $0, %sil
movw 48(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 50(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 52(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 54(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 56(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 58(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 60(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 62(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 3(%rax)
movb $0, %sil
movw 64(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 66(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 68(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 70(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 72(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 74(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 76(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 78(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 4(%rax)
movb $0, %sil
movw 80(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 82(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 84(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 86(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 88(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 90(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 92(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 94(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 5(%rax)
movb $0, %sil
movw 96(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 98(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 100(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 102(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 104(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 106(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 108(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 110(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 6(%rax)
movb $0, %sil
movw 112(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 114(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 116(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 118(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 120(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 122(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 124(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 126(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 7(%rax)
movb $0, %sil
movw 128(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 130(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 132(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 134(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 136(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 138(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 140(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 142(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 8(%rax)
movb $0, %sil
movw 144(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 146(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 148(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 150(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 152(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 154(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 156(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 158(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 9(%rax)
movb $0, %sil
movw 160(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 162(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 164(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 166(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 168(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 170(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 172(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 174(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 10(%rax)
movb $0, %sil
movw 176(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 178(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 180(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 182(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 184(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 186(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 188(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 190(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 11(%rax)
movb $0, %sil
movw 192(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 194(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 196(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 198(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 200(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 202(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 204(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 206(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 12(%rax)
movb $0, %sil
movw 208(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 210(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 212(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 214(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 216(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 218(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 220(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 222(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 13(%rax)
movb $0, %sil
movw 224(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 226(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 228(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 230(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 232(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 234(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 236(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 238(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 14(%rax)
movb $0, %sil
movw 240(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 242(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 244(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 246(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 248(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 250(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 252(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 254(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 15(%rax)
movb $0, %sil
movw 256(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 258(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 260(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 262(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 264(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 266(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 268(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 270(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 16(%rax)
movb $0, %sil
movw 272(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 274(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 276(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 278(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 280(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 282(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 284(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 286(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 17(%rax)
movb $0, %sil
movw 288(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 290(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 292(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 294(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 296(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 298(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 300(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 302(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 18(%rax)
movb $0, %sil
movw 304(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 306(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 308(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 310(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 312(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 314(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 316(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 318(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 19(%rax)
movb $0, %sil
movw 320(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 322(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 324(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 326(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 328(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 330(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 332(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 334(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 20(%rax)
movb $0, %sil
movw 336(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 338(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 340(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 342(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 344(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 346(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 348(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 350(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 21(%rax)
movb $0, %sil
movw 352(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 354(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 356(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 358(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 360(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 362(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 364(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 366(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 22(%rax)
movb $0, %sil
movw 368(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 370(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 372(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 374(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 376(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 378(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 380(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 382(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 23(%rax)
movb $0, %sil
movw 384(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 386(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 388(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 390(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 392(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 394(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 396(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 398(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 24(%rax)
movb $0, %sil
movw 400(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 402(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 404(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 406(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 408(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 410(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 412(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 414(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 25(%rax)
movb $0, %sil
movw 416(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 418(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 420(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 422(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 424(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 426(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 428(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 430(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 26(%rax)
movb $0, %sil
movw 432(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 434(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 436(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 438(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 440(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 442(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 444(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 446(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 27(%rax)
movb $0, %sil
movw 448(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 450(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 452(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 454(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 456(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 458(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 460(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 462(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 28(%rax)
movb $0, %sil
movw 464(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 466(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 468(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 470(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 472(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 474(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 476(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 478(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 29(%rax)
movb $0, %sil
movw 480(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 482(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 484(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 486(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 488(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 490(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 492(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 494(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $7, %edi
orb %dil, %sil
movb %sil, 30(%rax)
movb $0, %sil
movw 496(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $0, %edi
orb %dil, %sil
movw 498(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $1, %edi
orb %dil, %sil
movw 500(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $2, %edi
orb %dil, %sil
movw 502(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $3, %edi
orb %dil, %sil
movw 504(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $4, %edi
orb %dil, %sil
movw 506(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $5, %edi
orb %dil, %sil
movw 508(%rcx), %di
movzwl %di, %edi
shll $1, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $1, %edi
shll $6, %edi
orb %dil, %sil
movw 510(%rcx), %cx
movzwl %cx, %ecx
shll $1, %ecx
addl $1665, %ecx
imull $80635, %ecx, %ecx
shrl $28, %ecx
andl $1, %ecx
shll $7, %ecx
orb %cl, %sil
movb %sil, 31(%rax)
ret
L_poly_tobytes$1:
call L_poly_csubq$1
L_poly_tobytes$4:
movq $0, %rsi
movq $0, %rdi
jmp L_poly_tobytes$2
L_poly_tobytes$3:
movw (%rcx,%rsi,2), %r8w
incq %rsi
movw (%rcx,%rsi,2), %r9w
incq %rsi
movw %r8w, %r10w
andw $255, %r10w
movb %r10b, (%rdx,%rdi)
incq %rdi
shrw $8, %r8w
movw %r9w, %r10w
andw $15, %r10w
shlw $4, %r10w
orw %r8w, %r10w
movb %r10b, (%rdx,%rdi)
incq %rdi
shrw $4, %r9w
movb %r9b, (%rdx,%rdi)
incq %rdi
L_poly_tobytes$2:
cmpq $256, %rsi
jb L_poly_tobytes$3
ret
L_poly_sub$1:
movq $0, %r8
jmp L_poly_sub$2
L_poly_sub$3:
movw (%rsi,%r8,2), %r9w
movw (%rdi,%r8,2), %r10w
subw %r10w, %r9w
movw %r9w, (%rcx,%r8,2)
incq %r8
L_poly_sub$2:
cmpq $256, %r8
jb L_poly_sub$3
ret
L_poly_ntt$1:
leaq glob_data + 448(%rip), %rsi
movq $0, %rdi
movq $128, %r8
jmp L_poly_ntt$4
L_poly_ntt$5:
movq $0, %r11
jmp L_poly_ntt$6
L_poly_ntt$7:
incq %rdi
movw (%rsi,%rdi,2), %r9w
movq %r11, %r10
leaq (%r11,%r8), %r11
jmp L_poly_ntt$8
L_poly_ntt$9:
leaq (%r10,%r8), %rbx
movw (%rcx,%rbx,2), %bp
movswl %bp, %ebp
movswl %r9w, %r12d
imull %r12d, %ebp
imull $62209, %ebp, %r12d
shll $16, %r12d
sarl $16, %r12d
imull $3329, %r12d, %r12d
subl %r12d, %ebp
sarl $16, %ebp
movw (%rcx,%r10,2), %r12w
movw %r12w, %r13w
subw %bp, %r13w
movw %r13w, (%rcx,%rbx,2)
addw %r12w, %bp
movw %bp, (%rcx,%r10,2)
incq %r10
L_poly_ntt$8:
cmpq %r11, %r10
jb L_poly_ntt$9
leaq (%r10,%r8), %r11
L_poly_ntt$6:
cmpq $256, %r11
jb L_poly_ntt$7
shrq $1, %r8
L_poly_ntt$4:
cmpq $2, %r8
jnb L_poly_ntt$5
movq $0, %rsi
jmp L_poly_ntt$2
L_poly_ntt$3:
movw (%rcx,%rsi,2), %di
movswl %di, %r8d
imull $20159, %r8d, %r8d
sarl $26, %r8d
imull $3329, %r8d, %r8d
subw %r8w, %di
movw %di, (%rcx,%rsi,2)
incq %rsi
L_poly_ntt$2:
cmpq $256, %rsi
jb L_poly_ntt$3
ret
L_poly_invntt$1:
leaq glob_data + 192(%rip), %rsi
movq $0, %rdi
movq $2, %r8
jmp L_poly_invntt$4
L_poly_invntt$5:
movq $0, %r11
jmp L_poly_invntt$6
L_poly_invntt$7:
movw (%rsi,%rdi,2), %r9w
incq %rdi
movq %r11, %r10
leaq (%r11,%r8), %r11
jmp L_poly_invntt$8
L_poly_invntt$9:
leaq (%r10,%r8), %rbx
movw (%rcx,%rbx,2), %bp
movw (%rcx,%r10,2), %r12w
movw %bp, %r13w
addw %r12w, %r13w
movswl %r13w, %r14d
imull $20159, %r14d, %r14d
sarl $26, %r14d
imull $3329, %r14d, %r14d
subw %r14w, %r13w
movw %r13w, (%rcx,%r10,2)
subw %bp, %r12w
movswl %r12w, %ebp
movswl %r9w, %r12d
imull %r12d, %ebp
imull $62209, %ebp, %r12d
shll $16, %r12d
sarl $16, %r12d
imull $3329, %r12d, %r12d
subl %r12d, %ebp
sarl $16, %ebp
movw %bp, (%rcx,%rbx,2)
incq %r10
L_poly_invntt$8:
cmpq %r11, %r10
jb L_poly_invntt$9
leaq (%r10,%r8), %r11
L_poly_invntt$6:
cmpq $256, %r11
jb L_poly_invntt$7
shlq $1, %r8
L_poly_invntt$4:
cmpq $128, %r8
jbe L_poly_invntt$5
movw 254(%rsi), %si
movq $0, %rdi
jmp L_poly_invntt$2
L_poly_invntt$3:
movw (%rcx,%rdi,2), %r8w
movswl %r8w, %r8d
movswl %si, %r9d
imull %r9d, %r8d
imull $62209, %r8d, %r9d
shll $16, %r9d
sarl $16, %r9d
imull $3329, %r9d, %r9d
subl %r9d, %r8d
sarl $16, %r8d
movw %r8w, (%rcx,%rdi,2)
incq %rdi
L_poly_invntt$2:
cmpq $256, %rdi
jb L_poly_invntt$3
ret
L_poly_getnoise$1:
movq %rdx, 8(%rsp)
movb (%rax), %dl
movb %dl, 16(%rsp)
movb 1(%rax), %dl
movb %dl, 17(%rsp)
movb 2(%rax), %dl
movb %dl, 18(%rsp)
movb 3(%rax), %dl
movb %dl, 19(%rsp)
movb 4(%rax), %dl
movb %dl, 20(%rsp)
movb 5(%rax), %dl
movb %dl, 21(%rsp)
movb 6(%rax), %dl
movb %dl, 22(%rsp)
movb 7(%rax), %dl
movb %dl, 23(%rsp)
movb 8(%rax), %dl
movb %dl, 24(%rsp)
movb 9(%rax), %dl
movb %dl, 25(%rsp)
movb 10(%rax), %dl
movb %dl, 26(%rsp)
movb 11(%rax), %dl
movb %dl, 27(%rsp)
movb 12(%rax), %dl
movb %dl, 28(%rsp)
movb 13(%rax), %dl
movb %dl, 29(%rsp)
movb 14(%rax), %dl
movb %dl, 30(%rsp)
movb 15(%rax), %dl
movb %dl, 31(%rsp)
movb 16(%rax), %dl
movb %dl, 32(%rsp)
movb 17(%rax), %dl
movb %dl, 33(%rsp)
movb 18(%rax), %dl
movb %dl, 34(%rsp)
movb 19(%rax), %dl
movb %dl, 35(%rsp)
movb 20(%rax), %dl
movb %dl, 36(%rsp)
movb 21(%rax), %dl
movb %dl, 37(%rsp)
movb 22(%rax), %dl
movb %dl, 38(%rsp)
movb 23(%rax), %dl
movb %dl, 39(%rsp)
movb 24(%rax), %dl
movb %dl, 40(%rsp)
movb 25(%rax), %dl
movb %dl, 41(%rsp)
movb 26(%rax), %dl
movb %dl, 42(%rsp)
movb 27(%rax), %dl
movb %dl, 43(%rsp)
movb 28(%rax), %dl
movb %dl, 44(%rsp)
movb 29(%rax), %dl
movb %dl, 45(%rsp)
movb 30(%rax), %dl
movb %dl, 46(%rsp)
movb 31(%rax), %dl
movb %dl, 47(%rsp)
movb %cl, 48(%rsp)
leaq 49(%rsp), %rcx
leaq 16(%rsp), %rdx
leaq -208(%rsp), %rsp
call L_shake256_128_33$1
L_poly_getnoise$4:
leaq 208(%rsp), %rsp
movq 8(%rsp), %rcx
movq $0, %rdx
movq $0, %rsi
jmp L_poly_getnoise$2
L_poly_getnoise$3:
movb 49(%rsp,%rdx), %dil
movb %dil, %r8b
andb $85, %r8b
shrb $1, %dil
andb $85, %dil
addb %r8b, %dil
movb %dil, %r8b
andb $3, %r8b
movb %dil, %r9b
shrb $2, %r9b
andb $3, %r9b
subb %r9b, %r8b
movsbw %r8b, %r8w
movw %r8w, (%rcx,%rsi,2)
movb %dil, %r8b
shrb $4, %r8b
andb $3, %r8b
shrb $6, %dil
andb $3, %dil
subb %dil, %r8b
movsbw %r8b, %di
incq %rsi
movw %di, (%rcx,%rsi,2)
incq %rdx
incq %rsi
L_poly_getnoise$2:
cmpq $128, %rdx
jb L_poly_getnoise$3
ret
L_i_poly_frommsg$1:
movb (%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, (%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 2(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 4(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 6(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 8(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 10(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 12(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 14(%rdx)
movb 1(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 16(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 18(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 20(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 22(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 24(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 26(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 28(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 30(%rdx)
movb 2(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 32(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 34(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 36(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 38(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 40(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 42(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 44(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 46(%rdx)
movb 3(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 48(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 50(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 52(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 54(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 56(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 58(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 60(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 62(%rdx)
movb 4(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 64(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 66(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 68(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 70(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 72(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 74(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 76(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 78(%rdx)
movb 5(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 80(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 82(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 84(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 86(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 88(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 90(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 92(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 94(%rdx)
movb 6(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 96(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 98(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 100(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 102(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 104(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 106(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 108(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 110(%rdx)
movb 7(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 112(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 114(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 116(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 118(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 120(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 122(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 124(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 126(%rdx)
movb 8(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 128(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 130(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 132(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 134(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 136(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 138(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 140(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 142(%rdx)
movb 9(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 144(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 146(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 148(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 150(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 152(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 154(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 156(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 158(%rdx)
movb 10(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 160(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 162(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 164(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 166(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 168(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 170(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 172(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 174(%rdx)
movb 11(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 176(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 178(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 180(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 182(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 184(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 186(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 188(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 190(%rdx)
movb 12(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 192(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 194(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 196(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 198(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 200(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 202(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 204(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 206(%rdx)
movb 13(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 208(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 210(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 212(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 214(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 216(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 218(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 220(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 222(%rdx)
movb 14(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 224(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 226(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 228(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 230(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 232(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 234(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 236(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 238(%rdx)
movb 15(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 240(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 242(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 244(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 246(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 248(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 250(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 252(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 254(%rdx)
movb 16(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 256(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 258(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 260(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 262(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 264(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 266(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 268(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 270(%rdx)
movb 17(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 272(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 274(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 276(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 278(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 280(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 282(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 284(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 286(%rdx)
movb 18(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 288(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 290(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 292(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 294(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 296(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 298(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 300(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 302(%rdx)
movb 19(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 304(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 306(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 308(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 310(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 312(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 314(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 316(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 318(%rdx)
movb 20(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 320(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 322(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 324(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 326(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 328(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 330(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 332(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 334(%rdx)
movb 21(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 336(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 338(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 340(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 342(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 344(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 346(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 348(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 350(%rdx)
movb 22(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 352(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 354(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 356(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 358(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 360(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 362(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 364(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 366(%rdx)
movb 23(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 368(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 370(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 372(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 374(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 376(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 378(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 380(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 382(%rdx)
movb 24(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 384(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 386(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 388(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 390(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 392(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 394(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 396(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 398(%rdx)
movb 25(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 400(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 402(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 404(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 406(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 408(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 410(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 412(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 414(%rdx)
movb 26(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 416(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 418(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 420(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 422(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 424(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 426(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 428(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 430(%rdx)
movb 27(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 432(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 434(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 436(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 438(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 440(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 442(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 444(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 446(%rdx)
movb 28(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 448(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 450(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 452(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 454(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 456(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 458(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 460(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 462(%rdx)
movb 29(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 464(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 466(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 468(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 470(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 472(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 474(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 476(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 478(%rdx)
movb 30(%rcx), %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 480(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 482(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 484(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 486(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 488(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 490(%rdx)
shrb $1, %sil
movzbw %sil, %di
andw $1, %di
imulw $1665, %di, %di
movw %di, 492(%rdx)
shrb $1, %sil
movzbw %sil, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 494(%rdx)
movb 31(%rcx), %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 496(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 498(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 500(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 502(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 504(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 506(%rdx)
shrb $1, %cl
movzbw %cl, %si
andw $1, %si
imulw $1665, %si, %si
movw %si, 508(%rdx)
shrb $1, %cl
movzbw %cl, %cx
andw $1, %cx
imulw $1665, %cx, %cx
movw %cx, 510(%rdx)
ret
L_poly_frommont$1:
movw $1353, %cx
movq $0, %rdx
jmp L_poly_frommont$2
L_poly_frommont$3:
movw (%rax,%rdx,2), %si
movswl %si, %esi
movswl %cx, %edi
imull %edi, %esi
imull $62209, %esi, %edi
shll $16, %edi
sarl $16, %edi
imull $3329, %edi, %edi
subl %edi, %esi
sarl $16, %esi
movw %si, (%rax,%rdx,2)
incq %rdx
L_poly_frommont$2:
cmpq $256, %rdx
jb L_poly_frommont$3
ret
L_poly_frombytes$1:
movb (%rsi), %r8b
movb 1(%rsi), %r9b
movb 2(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, (%rdi)
movw %r10w, 2(%rdi)
movb 3(%rsi), %r8b
movb 4(%rsi), %r9b
movb 5(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 4(%rdi)
movw %r10w, 6(%rdi)
movb 6(%rsi), %r8b
movb 7(%rsi), %r9b
movb 8(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 8(%rdi)
movw %r10w, 10(%rdi)
movb 9(%rsi), %r8b
movb 10(%rsi), %r9b
movb 11(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 12(%rdi)
movw %r10w, 14(%rdi)
movb 12(%rsi), %r8b
movb 13(%rsi), %r9b
movb 14(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 16(%rdi)
movw %r10w, 18(%rdi)
movb 15(%rsi), %r8b
movb 16(%rsi), %r9b
movb 17(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 20(%rdi)
movw %r10w, 22(%rdi)
movb 18(%rsi), %r8b
movb 19(%rsi), %r9b
movb 20(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 24(%rdi)
movw %r10w, 26(%rdi)
movb 21(%rsi), %r8b
movb 22(%rsi), %r9b
movb 23(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 28(%rdi)
movw %r10w, 30(%rdi)
movb 24(%rsi), %r8b
movb 25(%rsi), %r9b
movb 26(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 32(%rdi)
movw %r10w, 34(%rdi)
movb 27(%rsi), %r8b
movb 28(%rsi), %r9b
movb 29(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 36(%rdi)
movw %r10w, 38(%rdi)
movb 30(%rsi), %r8b
movb 31(%rsi), %r9b
movb 32(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 40(%rdi)
movw %r10w, 42(%rdi)
movb 33(%rsi), %r8b
movb 34(%rsi), %r9b
movb 35(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 44(%rdi)
movw %r10w, 46(%rdi)
movb 36(%rsi), %r8b
movb 37(%rsi), %r9b
movb 38(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 48(%rdi)
movw %r10w, 50(%rdi)
movb 39(%rsi), %r8b
movb 40(%rsi), %r9b
movb 41(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 52(%rdi)
movw %r10w, 54(%rdi)
movb 42(%rsi), %r8b
movb 43(%rsi), %r9b
movb 44(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 56(%rdi)
movw %r10w, 58(%rdi)
movb 45(%rsi), %r8b
movb 46(%rsi), %r9b
movb 47(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 60(%rdi)
movw %r10w, 62(%rdi)
movb 48(%rsi), %r8b
movb 49(%rsi), %r9b
movb 50(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 64(%rdi)
movw %r10w, 66(%rdi)
movb 51(%rsi), %r8b
movb 52(%rsi), %r9b
movb 53(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 68(%rdi)
movw %r10w, 70(%rdi)
movb 54(%rsi), %r8b
movb 55(%rsi), %r9b
movb 56(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 72(%rdi)
movw %r10w, 74(%rdi)
movb 57(%rsi), %r8b
movb 58(%rsi), %r9b
movb 59(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 76(%rdi)
movw %r10w, 78(%rdi)
movb 60(%rsi), %r8b
movb 61(%rsi), %r9b
movb 62(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 80(%rdi)
movw %r10w, 82(%rdi)
movb 63(%rsi), %r8b
movb 64(%rsi), %r9b
movb 65(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 84(%rdi)
movw %r10w, 86(%rdi)
movb 66(%rsi), %r8b
movb 67(%rsi), %r9b
movb 68(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 88(%rdi)
movw %r10w, 90(%rdi)
movb 69(%rsi), %r8b
movb 70(%rsi), %r9b
movb 71(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 92(%rdi)
movw %r10w, 94(%rdi)
movb 72(%rsi), %r8b
movb 73(%rsi), %r9b
movb 74(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 96(%rdi)
movw %r10w, 98(%rdi)
movb 75(%rsi), %r8b
movb 76(%rsi), %r9b
movb 77(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 100(%rdi)
movw %r10w, 102(%rdi)
movb 78(%rsi), %r8b
movb 79(%rsi), %r9b
movb 80(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 104(%rdi)
movw %r10w, 106(%rdi)
movb 81(%rsi), %r8b
movb 82(%rsi), %r9b
movb 83(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 108(%rdi)
movw %r10w, 110(%rdi)
movb 84(%rsi), %r8b
movb 85(%rsi), %r9b
movb 86(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 112(%rdi)
movw %r10w, 114(%rdi)
movb 87(%rsi), %r8b
movb 88(%rsi), %r9b
movb 89(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 116(%rdi)
movw %r10w, 118(%rdi)
movb 90(%rsi), %r8b
movb 91(%rsi), %r9b
movb 92(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 120(%rdi)
movw %r10w, 122(%rdi)
movb 93(%rsi), %r8b
movb 94(%rsi), %r9b
movb 95(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 124(%rdi)
movw %r10w, 126(%rdi)
movb 96(%rsi), %r8b
movb 97(%rsi), %r9b
movb 98(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 128(%rdi)
movw %r10w, 130(%rdi)
movb 99(%rsi), %r8b
movb 100(%rsi), %r9b
movb 101(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 132(%rdi)
movw %r10w, 134(%rdi)
movb 102(%rsi), %r8b
movb 103(%rsi), %r9b
movb 104(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 136(%rdi)
movw %r10w, 138(%rdi)
movb 105(%rsi), %r8b
movb 106(%rsi), %r9b
movb 107(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 140(%rdi)
movw %r10w, 142(%rdi)
movb 108(%rsi), %r8b
movb 109(%rsi), %r9b
movb 110(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 144(%rdi)
movw %r10w, 146(%rdi)
movb 111(%rsi), %r8b
movb 112(%rsi), %r9b
movb 113(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 148(%rdi)
movw %r10w, 150(%rdi)
movb 114(%rsi), %r8b
movb 115(%rsi), %r9b
movb 116(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 152(%rdi)
movw %r10w, 154(%rdi)
movb 117(%rsi), %r8b
movb 118(%rsi), %r9b
movb 119(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 156(%rdi)
movw %r10w, 158(%rdi)
movb 120(%rsi), %r8b
movb 121(%rsi), %r9b
movb 122(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 160(%rdi)
movw %r10w, 162(%rdi)
movb 123(%rsi), %r8b
movb 124(%rsi), %r9b
movb 125(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 164(%rdi)
movw %r10w, 166(%rdi)
movb 126(%rsi), %r8b
movb 127(%rsi), %r9b
movb 128(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 168(%rdi)
movw %r10w, 170(%rdi)
movb 129(%rsi), %r8b
movb 130(%rsi), %r9b
movb 131(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 172(%rdi)
movw %r10w, 174(%rdi)
movb 132(%rsi), %r8b
movb 133(%rsi), %r9b
movb 134(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 176(%rdi)
movw %r10w, 178(%rdi)
movb 135(%rsi), %r8b
movb 136(%rsi), %r9b
movb 137(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 180(%rdi)
movw %r10w, 182(%rdi)
movb 138(%rsi), %r8b
movb 139(%rsi), %r9b
movb 140(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 184(%rdi)
movw %r10w, 186(%rdi)
movb 141(%rsi), %r8b
movb 142(%rsi), %r9b
movb 143(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 188(%rdi)
movw %r10w, 190(%rdi)
movb 144(%rsi), %r8b
movb 145(%rsi), %r9b
movb 146(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 192(%rdi)
movw %r10w, 194(%rdi)
movb 147(%rsi), %r8b
movb 148(%rsi), %r9b
movb 149(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 196(%rdi)
movw %r10w, 198(%rdi)
movb 150(%rsi), %r8b
movb 151(%rsi), %r9b
movb 152(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 200(%rdi)
movw %r10w, 202(%rdi)
movb 153(%rsi), %r8b
movb 154(%rsi), %r9b
movb 155(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 204(%rdi)
movw %r10w, 206(%rdi)
movb 156(%rsi), %r8b
movb 157(%rsi), %r9b
movb 158(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 208(%rdi)
movw %r10w, 210(%rdi)
movb 159(%rsi), %r8b
movb 160(%rsi), %r9b
movb 161(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 212(%rdi)
movw %r10w, 214(%rdi)
movb 162(%rsi), %r8b
movb 163(%rsi), %r9b
movb 164(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 216(%rdi)
movw %r10w, 218(%rdi)
movb 165(%rsi), %r8b
movb 166(%rsi), %r9b
movb 167(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 220(%rdi)
movw %r10w, 222(%rdi)
movb 168(%rsi), %r8b
movb 169(%rsi), %r9b
movb 170(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 224(%rdi)
movw %r10w, 226(%rdi)
movb 171(%rsi), %r8b
movb 172(%rsi), %r9b
movb 173(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 228(%rdi)
movw %r10w, 230(%rdi)
movb 174(%rsi), %r8b
movb 175(%rsi), %r9b
movb 176(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 232(%rdi)
movw %r10w, 234(%rdi)
movb 177(%rsi), %r8b
movb 178(%rsi), %r9b
movb 179(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 236(%rdi)
movw %r10w, 238(%rdi)
movb 180(%rsi), %r8b
movb 181(%rsi), %r9b
movb 182(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 240(%rdi)
movw %r10w, 242(%rdi)
movb 183(%rsi), %r8b
movb 184(%rsi), %r9b
movb 185(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 244(%rdi)
movw %r10w, 246(%rdi)
movb 186(%rsi), %r8b
movb 187(%rsi), %r9b
movb 188(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 248(%rdi)
movw %r10w, 250(%rdi)
movb 189(%rsi), %r8b
movb 190(%rsi), %r9b
movb 191(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 252(%rdi)
movw %r10w, 254(%rdi)
movb 192(%rsi), %r8b
movb 193(%rsi), %r9b
movb 194(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 256(%rdi)
movw %r10w, 258(%rdi)
movb 195(%rsi), %r8b
movb 196(%rsi), %r9b
movb 197(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 260(%rdi)
movw %r10w, 262(%rdi)
movb 198(%rsi), %r8b
movb 199(%rsi), %r9b
movb 200(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 264(%rdi)
movw %r10w, 266(%rdi)
movb 201(%rsi), %r8b
movb 202(%rsi), %r9b
movb 203(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 268(%rdi)
movw %r10w, 270(%rdi)
movb 204(%rsi), %r8b
movb 205(%rsi), %r9b
movb 206(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 272(%rdi)
movw %r10w, 274(%rdi)
movb 207(%rsi), %r8b
movb 208(%rsi), %r9b
movb 209(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 276(%rdi)
movw %r10w, 278(%rdi)
movb 210(%rsi), %r8b
movb 211(%rsi), %r9b
movb 212(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 280(%rdi)
movw %r10w, 282(%rdi)
movb 213(%rsi), %r8b
movb 214(%rsi), %r9b
movb 215(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 284(%rdi)
movw %r10w, 286(%rdi)
movb 216(%rsi), %r8b
movb 217(%rsi), %r9b
movb 218(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 288(%rdi)
movw %r10w, 290(%rdi)
movb 219(%rsi), %r8b
movb 220(%rsi), %r9b
movb 221(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 292(%rdi)
movw %r10w, 294(%rdi)
movb 222(%rsi), %r8b
movb 223(%rsi), %r9b
movb 224(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 296(%rdi)
movw %r10w, 298(%rdi)
movb 225(%rsi), %r8b
movb 226(%rsi), %r9b
movb 227(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 300(%rdi)
movw %r10w, 302(%rdi)
movb 228(%rsi), %r8b
movb 229(%rsi), %r9b
movb 230(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 304(%rdi)
movw %r10w, 306(%rdi)
movb 231(%rsi), %r8b
movb 232(%rsi), %r9b
movb 233(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 308(%rdi)
movw %r10w, 310(%rdi)
movb 234(%rsi), %r8b
movb 235(%rsi), %r9b
movb 236(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 312(%rdi)
movw %r10w, 314(%rdi)
movb 237(%rsi), %r8b
movb 238(%rsi), %r9b
movb 239(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 316(%rdi)
movw %r10w, 318(%rdi)
movb 240(%rsi), %r8b
movb 241(%rsi), %r9b
movb 242(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 320(%rdi)
movw %r10w, 322(%rdi)
movb 243(%rsi), %r8b
movb 244(%rsi), %r9b
movb 245(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 324(%rdi)
movw %r10w, 326(%rdi)
movb 246(%rsi), %r8b
movb 247(%rsi), %r9b
movb 248(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 328(%rdi)
movw %r10w, 330(%rdi)
movb 249(%rsi), %r8b
movb 250(%rsi), %r9b
movb 251(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 332(%rdi)
movw %r10w, 334(%rdi)
movb 252(%rsi), %r8b
movb 253(%rsi), %r9b
movb 254(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 336(%rdi)
movw %r10w, 338(%rdi)
movb 255(%rsi), %r8b
movb 256(%rsi), %r9b
movb 257(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 340(%rdi)
movw %r10w, 342(%rdi)
movb 258(%rsi), %r8b
movb 259(%rsi), %r9b
movb 260(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 344(%rdi)
movw %r10w, 346(%rdi)
movb 261(%rsi), %r8b
movb 262(%rsi), %r9b
movb 263(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 348(%rdi)
movw %r10w, 350(%rdi)
movb 264(%rsi), %r8b
movb 265(%rsi), %r9b
movb 266(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 352(%rdi)
movw %r10w, 354(%rdi)
movb 267(%rsi), %r8b
movb 268(%rsi), %r9b
movb 269(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 356(%rdi)
movw %r10w, 358(%rdi)
movb 270(%rsi), %r8b
movb 271(%rsi), %r9b
movb 272(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 360(%rdi)
movw %r10w, 362(%rdi)
movb 273(%rsi), %r8b
movb 274(%rsi), %r9b
movb 275(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 364(%rdi)
movw %r10w, 366(%rdi)
movb 276(%rsi), %r8b
movb 277(%rsi), %r9b
movb 278(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 368(%rdi)
movw %r10w, 370(%rdi)
movb 279(%rsi), %r8b
movb 280(%rsi), %r9b
movb 281(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 372(%rdi)
movw %r10w, 374(%rdi)
movb 282(%rsi), %r8b
movb 283(%rsi), %r9b
movb 284(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 376(%rdi)
movw %r10w, 378(%rdi)
movb 285(%rsi), %r8b
movb 286(%rsi), %r9b
movb 287(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 380(%rdi)
movw %r10w, 382(%rdi)
movb 288(%rsi), %r8b
movb 289(%rsi), %r9b
movb 290(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 384(%rdi)
movw %r10w, 386(%rdi)
movb 291(%rsi), %r8b
movb 292(%rsi), %r9b
movb 293(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 388(%rdi)
movw %r10w, 390(%rdi)
movb 294(%rsi), %r8b
movb 295(%rsi), %r9b
movb 296(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 392(%rdi)
movw %r10w, 394(%rdi)
movb 297(%rsi), %r8b
movb 298(%rsi), %r9b
movb 299(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 396(%rdi)
movw %r10w, 398(%rdi)
movb 300(%rsi), %r8b
movb 301(%rsi), %r9b
movb 302(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 400(%rdi)
movw %r10w, 402(%rdi)
movb 303(%rsi), %r8b
movb 304(%rsi), %r9b
movb 305(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 404(%rdi)
movw %r10w, 406(%rdi)
movb 306(%rsi), %r8b
movb 307(%rsi), %r9b
movb 308(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 408(%rdi)
movw %r10w, 410(%rdi)
movb 309(%rsi), %r8b
movb 310(%rsi), %r9b
movb 311(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 412(%rdi)
movw %r10w, 414(%rdi)
movb 312(%rsi), %r8b
movb 313(%rsi), %r9b
movb 314(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 416(%rdi)
movw %r10w, 418(%rdi)
movb 315(%rsi), %r8b
movb 316(%rsi), %r9b
movb 317(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 420(%rdi)
movw %r10w, 422(%rdi)
movb 318(%rsi), %r8b
movb 319(%rsi), %r9b
movb 320(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 424(%rdi)
movw %r10w, 426(%rdi)
movb 321(%rsi), %r8b
movb 322(%rsi), %r9b
movb 323(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 428(%rdi)
movw %r10w, 430(%rdi)
movb 324(%rsi), %r8b
movb 325(%rsi), %r9b
movb 326(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 432(%rdi)
movw %r10w, 434(%rdi)
movb 327(%rsi), %r8b
movb 328(%rsi), %r9b
movb 329(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 436(%rdi)
movw %r10w, 438(%rdi)
movb 330(%rsi), %r8b
movb 331(%rsi), %r9b
movb 332(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 440(%rdi)
movw %r10w, 442(%rdi)
movb 333(%rsi), %r8b
movb 334(%rsi), %r9b
movb 335(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 444(%rdi)
movw %r10w, 446(%rdi)
movb 336(%rsi), %r8b
movb 337(%rsi), %r9b
movb 338(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 448(%rdi)
movw %r10w, 450(%rdi)
movb 339(%rsi), %r8b
movb 340(%rsi), %r9b
movb 341(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 452(%rdi)
movw %r10w, 454(%rdi)
movb 342(%rsi), %r8b
movb 343(%rsi), %r9b
movb 344(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 456(%rdi)
movw %r10w, 458(%rdi)
movb 345(%rsi), %r8b
movb 346(%rsi), %r9b
movb 347(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 460(%rdi)
movw %r10w, 462(%rdi)
movb 348(%rsi), %r8b
movb 349(%rsi), %r9b
movb 350(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 464(%rdi)
movw %r10w, 466(%rdi)
movb 351(%rsi), %r8b
movb 352(%rsi), %r9b
movb 353(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 468(%rdi)
movw %r10w, 470(%rdi)
movb 354(%rsi), %r8b
movb 355(%rsi), %r9b
movb 356(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 472(%rdi)
movw %r10w, 474(%rdi)
movb 357(%rsi), %r8b
movb 358(%rsi), %r9b
movb 359(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 476(%rdi)
movw %r10w, 478(%rdi)
movb 360(%rsi), %r8b
movb 361(%rsi), %r9b
movb 362(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 480(%rdi)
movw %r10w, 482(%rdi)
movb 363(%rsi), %r8b
movb 364(%rsi), %r9b
movb 365(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 484(%rdi)
movw %r10w, 486(%rdi)
movb 366(%rsi), %r8b
movb 367(%rsi), %r9b
movb 368(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 488(%rdi)
movw %r10w, 490(%rdi)
movb 369(%rsi), %r8b
movb 370(%rsi), %r9b
movb 371(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 492(%rdi)
movw %r10w, 494(%rdi)
movb 372(%rsi), %r8b
movb 373(%rsi), %r9b
movb 374(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 496(%rdi)
movw %r10w, 498(%rdi)
movb 375(%rsi), %r8b
movb 376(%rsi), %r9b
movb 377(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 500(%rdi)
movw %r10w, 502(%rdi)
movb 378(%rsi), %r8b
movb 379(%rsi), %r9b
movb 380(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 504(%rdi)
movw %r10w, 506(%rdi)
movb 381(%rsi), %r8b
movb 382(%rsi), %r9b
movb 383(%rsi), %r10b
movzbw %r8b, %r8w
movzbw %r9b, %r11w
andw $15, %r11w
shlw $8, %r11w
orw %r11w, %r8w
movzbw %r10b, %r10w
shlw $4, %r10w
movzbw %r9b, %r9w
shrw $4, %r9w
orw %r9w, %r10w
movw %r8w, 508(%rdi)
movw %r10w, 510(%rdi)
ret
L_poly_decompress$1:
movq $0, %rdi
movq $0, %r8
jmp L_poly_decompress$2
L_poly_decompress$3:
movb (%rsi,%rdi), %r9b
movzbw %r9b, %r10w
movzbw %r9b, %r9w
andw $15, %r10w
shrw $4, %r9w
imulw $3329, %r10w, %r10w
imulw $3329, %r9w, %r9w
addw $8, %r10w
addw $8, %r9w
shrw $4, %r10w
shrw $4, %r9w
movw %r10w, (%rcx,%r8,2)
incq %r8
movw %r9w, (%rcx,%r8,2)
incq %r8
incq %rdi
L_poly_decompress$2:
cmpq $128, %rdi
jb L_poly_decompress$3
ret
L_i_poly_compress$1:
call L_poly_csubq$1
L_i_poly_compress$4:
movq $0, %rdx
movq $0, %rsi
jmp L_i_poly_compress$2
L_i_poly_compress$3:
movw (%rcx,%rsi,2), %di
movzwl %di, %edi
shll $4, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $15, %edi
incq %rsi
movw (%rcx,%rsi,2), %r8w
movzwl %r8w, %r8d
shll $4, %r8d
addl $1665, %r8d
imull $80635, %r8d, %r8d
shrl $28, %r8d
andl $15, %r8d
shll $4, %r8d
orl %r8d, %edi
movb %dil, (%rax,%rdx)
incq %rdx
incq %rsi
L_i_poly_compress$2:
cmpq $128, %rdx
jb L_i_poly_compress$3
ret
L_poly_compress$1:
call L_poly_csubq$1
L_poly_compress$4:
movq $0, %rdx
movq $0, %rsi
jmp L_poly_compress$2
L_poly_compress$3:
movw (%rcx,%rsi,2), %di
movzwl %di, %edi
shll $4, %edi
addl $1665, %edi
imull $80635, %edi, %edi
shrl $28, %edi
andl $15, %edi
incq %rsi
movw (%rcx,%rsi,2), %r8w
movzwl %r8w, %r8d
shll $4, %r8d
addl $1665, %r8d
imull $80635, %r8d, %r8d
shrl $28, %r8d
andl $15, %r8d
shll $4, %r8d
orl %r8d, %edi
movb %dil, (%rax,%rdx)
incq %rdx
incq %rsi
L_poly_compress$2:
cmpq $128, %rdx
jb L_poly_compress$3
ret
L_poly_basemul$1:
movq %rdi, 8(%rsp)
movq $64, %rdi
movq $0, %r8
jmp L_poly_basemul$2
L_poly_basemul$3:
leaq glob_data + 448(%rip), %r9
movw (%r9,%rdi,2), %r9w
incq %rdi
movw (%rcx,%r8,2), %r10w
movw (%rsi,%r8,2), %r11w
incq %r8
movw (%rcx,%r8,2), %bx
movw (%rsi,%r8,2), %bp
addq $-1, %r8
movswl %bx, %r12d
movswl %bp, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r12w, %r12d
movswl %r9w, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r10w, %r13d
movswl %r11w, %r14d
imull %r14d, %r13d
imull $62209, %r13d, %r14d
shll $16, %r14d
sarl $16, %r14d
imull $3329, %r14d, %r14d
subl %r14d, %r13d
sarl $16, %r13d
addw %r13w, %r12w
movswl %r10w, %r10d
movswl %bp, %ebp
imull %ebp, %r10d
imull $62209, %r10d, %ebp
shll $16, %ebp
sarl $16, %ebp
imull $3329, %ebp, %ebp
subl %ebp, %r10d
sarl $16, %r10d
movswl %bx, %ebx
movswl %r11w, %r11d
imull %r11d, %ebx
imull $62209, %ebx, %r11d
shll $16, %r11d
sarl $16, %r11d
imull $3329, %r11d, %r11d
subl %r11d, %ebx
sarl $16, %ebx
addw %bx, %r10w
movq 8(%rsp), %r11
movw %r12w, (%r11,%r8,2)
incq %r8
movw %r10w, (%r11,%r8,2)
movq %r11, 16(%rsp)
negw %r9w
incq %r8
movw (%rcx,%r8,2), %r10w
movw (%rsi,%r8,2), %r11w
incq %r8
movw (%rcx,%r8,2), %bx
movw (%rsi,%r8,2), %bp
addq $-1, %r8
movswl %bx, %r12d
movswl %bp, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
movswl %r12w, %r12d
movswl %r9w, %r9d
imull %r9d, %r12d
imull $62209, %r12d, %r9d
shll $16, %r9d
sarl $16, %r9d
imull $3329, %r9d, %r9d
subl %r9d, %r12d
sarl $16, %r12d
movw %r12w, %r9w
movswl %r10w, %r12d
movswl %r11w, %r13d
imull %r13d, %r12d
imull $62209, %r12d, %r13d
shll $16, %r13d
sarl $16, %r13d
imull $3329, %r13d, %r13d
subl %r13d, %r12d
sarl $16, %r12d
addw %r12w, %r9w
movswl %r10w, %r10d
movswl %bp, %ebp
imull %ebp, %r10d
imull $62209, %r10d, %ebp
shll $16, %ebp
sarl $16, %ebp
imull $3329, %ebp, %ebp
subl %ebp, %r10d
sarl $16, %r10d
movswl %bx, %ebx
movswl %r11w, %r11d
imull %r11d, %ebx
imull $62209, %ebx, %r11d
shll $16, %r11d
sarl $16, %r11d
imull $3329, %r11d, %r11d
subl %r11d, %ebx
sarl $16, %ebx
addw %bx, %r10w
movq 16(%rsp), %r11
movw %r9w, (%r11,%r8,2)
incq %r8
movw %r10w, (%r11,%r8,2)
incq %r8
L_poly_basemul$2:
cmpq $256, %r8
jb L_poly_basemul$3
ret
L_poly_csubq$1:
movq $0, %r8
jmp L_poly_csubq$2
L_poly_csubq$3:
movw (%rcx,%r8,2), %r9w
addw $-3329, %r9w
movw %r9w, %r10w
sarw $15, %r10w
andw $3329, %r10w
addw %r10w, %r9w
movw %r9w, (%rcx,%r8,2)
incq %r8
L_poly_csubq$2:
cmpq $256, %r8
jb L_poly_csubq$3
ret
L_poly_add2$1:
movq $0, %rdi
jmp L_poly_add2$2
L_poly_add2$3:
movw (%rcx,%rdi,2), %r8w
movw (%rsi,%rdi,2), %r9w
addw %r9w, %r8w
movw %r8w, (%rcx,%rdi,2)
incq %rdi
L_poly_add2$2:
cmpq $256, %rdi
jb L_poly_add2$3
ret
L_shake256_64$1:
movq %rax, 8(%rsp)
movq %rcx, 16(%rsp)
leaq 24(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
xorq %rax, (%rcx)
movq 8(%rdx), %rax
xorq %rax, 8(%rcx)
movq 16(%rdx), %rax
xorq %rax, 16(%rcx)
movq 24(%rdx), %rax
xorq %rax, 24(%rcx)
movq 32(%rdx), %rax
xorq %rax, 32(%rcx)
movq 40(%rdx), %rax
xorq %rax, 40(%rcx)
movq 48(%rdx), %rax
xorq %rax, 48(%rcx)
movq 56(%rdx), %rax
xorq %rax, 56(%rcx)
xorb $31, 64(%rcx)
xorb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_64$9:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rax
movq 8(%rsp), %rdx
jmp L_shake256_64$6
L_shake256_64$7:
movq (%rcx), %rsi
movq %rsi, (%rdx)
movq 8(%rcx), %rsi
movq %rsi, 8(%rdx)
movq 16(%rcx), %rsi
movq %rsi, 16(%rdx)
movq 24(%rcx), %rsi
movq %rsi, 24(%rdx)
movq 32(%rcx), %rsi
movq %rsi, 32(%rdx)
movq 40(%rcx), %rsi
movq %rsi, 40(%rdx)
movq 48(%rcx), %rsi
movq %rsi, 48(%rdx)
movq 56(%rcx), %rsi
movq %rsi, 56(%rdx)
movq 64(%rcx), %rsi
movq %rsi, 64(%rdx)
movq 72(%rcx), %rsi
movq %rsi, 72(%rdx)
movq 80(%rcx), %rsi
movq %rsi, 80(%rdx)
movq 88(%rcx), %rsi
movq %rsi, 88(%rdx)
movq 96(%rcx), %rsi
movq %rsi, 96(%rdx)
movq 104(%rcx), %rsi
movq %rsi, 104(%rdx)
movq 112(%rcx), %rsi
movq %rsi, 112(%rdx)
movq 120(%rcx), %rsi
movq %rsi, 120(%rdx)
movq 128(%rcx), %rsi
movq %rsi, 128(%rdx)
addq $136, %rdx
addq $-136, %rax
movq %rdx, 8(%rsp)
movq %rax, 16(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_64$8:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rax
movq 8(%rsp), %rdx
L_shake256_64$6:
cmpq $136, %rax
jnbe L_shake256_64$7
movq %rax, 8(%rsp)
shrq $3, %rax
movq $0, %rsi
jmp L_shake256_64$4
L_shake256_64$5:
movq (%rcx,%rsi,8), %rdi
movq %rdi, (%rdx,%rsi,8)
incq %rsi
L_shake256_64$4:
cmpq %rax, %rsi
jb L_shake256_64$5
shlq $3, %rsi
movq 8(%rsp), %rax
jmp L_shake256_64$2
L_shake256_64$3:
movb (%rcx,%rsi), %dil
movb %dil, (%rdx,%rsi)
incq %rsi
L_shake256_64$2:
cmpq %rax, %rsi
jb L_shake256_64$3
ret
L_sha3_512_64$1:
movq %rax, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
xorq %rax, (%rcx)
movq 8(%rdx), %rax
xorq %rax, 8(%rcx)
movq 16(%rdx), %rax
xorq %rax, 16(%rcx)
movq 24(%rdx), %rax
xorq %rax, 24(%rcx)
movq 32(%rdx), %rax
xorq %rax, 32(%rcx)
movq 40(%rdx), %rax
xorq %rax, 40(%rcx)
movq 48(%rdx), %rax
xorq %rax, 48(%rcx)
movq 56(%rdx), %rax
xorq %rax, 56(%rcx)
xorb $6, 64(%rcx)
xorb $-128, 71(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_512_64$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rdx
movq %rdx, 24(%rax)
movq 32(%rcx), %rdx
movq %rdx, 32(%rax)
movq 40(%rcx), %rdx
movq %rdx, 40(%rax)
movq 48(%rcx), %rdx
movq %rdx, 48(%rax)
movq 56(%rcx), %rcx
movq %rcx, 56(%rax)
ret
L_sha3_256_32$1:
movq %rax, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rax, %rax
movq %rax, (%rcx)
movq %rax, 8(%rcx)
movq %rax, 16(%rcx)
movq %rax, 24(%rcx)
movq %rax, 32(%rcx)
movq %rax, 40(%rcx)
movq %rax, 48(%rcx)
movq %rax, 56(%rcx)
movq %rax, 64(%rcx)
movq %rax, 72(%rcx)
movq %rax, 80(%rcx)
movq %rax, 88(%rcx)
movq %rax, 96(%rcx)
movq %rax, 104(%rcx)
movq %rax, 112(%rcx)
movq %rax, 120(%rcx)
movq %rax, 128(%rcx)
movq %rax, 136(%rcx)
movq %rax, 144(%rcx)
movq %rax, 152(%rcx)
movq %rax, 160(%rcx)
movq %rax, 168(%rcx)
movq %rax, 176(%rcx)
movq %rax, 184(%rcx)
movq %rax, 192(%rcx)
movq (%rdx), %rax
movq %rax, (%rcx)
movq 8(%rdx), %rax
movq %rax, 8(%rcx)
movq 16(%rdx), %rax
movq %rax, 16(%rcx)
movq 24(%rdx), %rax
movq %rax, 24(%rcx)
xorb $6, 32(%rcx)
movb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256_32$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq %rcx, 24(%rax)
ret
L_sha3_256$1:
movq %rcx, 8(%rsp)
leaq 40(%rsp), %rcx
xorq %rdx, %rdx
movq %rdx, (%rcx)
movq %rdx, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdx, 24(%rcx)
movq %rdx, 32(%rcx)
movq %rdx, 40(%rcx)
movq %rdx, 48(%rcx)
movq %rdx, 56(%rcx)
movq %rdx, 64(%rcx)
movq %rdx, 72(%rcx)
movq %rdx, 80(%rcx)
movq %rdx, 88(%rcx)
movq %rdx, 96(%rcx)
movq %rdx, 104(%rcx)
movq %rdx, 112(%rcx)
movq %rdx, 120(%rcx)
movq %rdx, 128(%rcx)
movq %rdx, 136(%rcx)
movq %rdx, 144(%rcx)
movq %rdx, 152(%rcx)
movq %rdx, 160(%rcx)
movq %rdx, 168(%rcx)
movq %rdx, 176(%rcx)
movq %rdx, 184(%rcx)
movq %rdx, 192(%rcx)
movq $136, %rdx
jmp L_sha3_256$7
L_sha3_256$8:
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_sha3_256$10
L_sha3_256$11:
movq (%rsi,%r8,8), %r9
xorq %r9, (%rcx,%r8,8)
incq %r8
L_sha3_256$10:
cmpq %rdi, %r8
jb L_sha3_256$11
addq %rdx, %rsi
subq %rdx, %rax
movq %rsi, 16(%rsp)
movq %rax, 24(%rsp)
movq %rdx, 32(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256$9:
leaq 224(%rsp), %rsp
movq 16(%rsp), %rsi
movq 24(%rsp), %rax
movq 32(%rsp), %rdx
L_sha3_256$7:
cmpq %rdx, %rax
jnb L_sha3_256$8
movb $6, %dil
movq %rax, %r8
shrq $3, %r8
movq $0, %r9
jmp L_sha3_256$5
L_sha3_256$6:
movq (%rsi,%r9,8), %r10
xorq %r10, (%rcx,%r9,8)
incq %r9
L_sha3_256$5:
cmpq %r8, %r9
jb L_sha3_256$6
shlq $3, %r9
jmp L_sha3_256$3
L_sha3_256$4:
movb (%rsi,%r9), %r8b
xorb %r8b, (%rcx,%r9)
incq %r9
L_sha3_256$3:
cmpq %rax, %r9
jb L_sha3_256$4
xorb %dil, (%rcx,%r9)
addq $-1, %rdx
xorb $-128, (%rcx,%rdx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_256$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movq (%rcx), %rdx
movq %rdx, (%rax)
movq 8(%rcx), %rdx
movq %rdx, 8(%rax)
movq 16(%rcx), %rdx
movq %rdx, 16(%rax)
movq 24(%rcx), %rcx
movq %rcx, 24(%rax)
ret
L_shake128_squeezeblock$1:
movq %rdx, 8(%rsp)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake128_squeezeblock$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rdx
movb (%rcx), %sil
movb %sil, (%rdx)
movb 1(%rcx), %sil
movb %sil, 1(%rdx)
movb 2(%rcx), %sil
movb %sil, 2(%rdx)
movb 3(%rcx), %sil
movb %sil, 3(%rdx)
movb 4(%rcx), %sil
movb %sil, 4(%rdx)
movb 5(%rcx), %sil
movb %sil, 5(%rdx)
movb 6(%rcx), %sil
movb %sil, 6(%rdx)
movb 7(%rcx), %sil
movb %sil, 7(%rdx)
movb 8(%rcx), %sil
movb %sil, 8(%rdx)
movb 9(%rcx), %sil
movb %sil, 9(%rdx)
movb 10(%rcx), %sil
movb %sil, 10(%rdx)
movb 11(%rcx), %sil
movb %sil, 11(%rdx)
movb 12(%rcx), %sil
movb %sil, 12(%rdx)
movb 13(%rcx), %sil
movb %sil, 13(%rdx)
movb 14(%rcx), %sil
movb %sil, 14(%rdx)
movb 15(%rcx), %sil
movb %sil, 15(%rdx)
movb 16(%rcx), %sil
movb %sil, 16(%rdx)
movb 17(%rcx), %sil
movb %sil, 17(%rdx)
movb 18(%rcx), %sil
movb %sil, 18(%rdx)
movb 19(%rcx), %sil
movb %sil, 19(%rdx)
movb 20(%rcx), %sil
movb %sil, 20(%rdx)
movb 21(%rcx), %sil
movb %sil, 21(%rdx)
movb 22(%rcx), %sil
movb %sil, 22(%rdx)
movb 23(%rcx), %sil
movb %sil, 23(%rdx)
movb 24(%rcx), %sil
movb %sil, 24(%rdx)
movb 25(%rcx), %sil
movb %sil, 25(%rdx)
movb 26(%rcx), %sil
movb %sil, 26(%rdx)
movb 27(%rcx), %sil
movb %sil, 27(%rdx)
movb 28(%rcx), %sil
movb %sil, 28(%rdx)
movb 29(%rcx), %sil
movb %sil, 29(%rdx)
movb 30(%rcx), %sil
movb %sil, 30(%rdx)
movb 31(%rcx), %sil
movb %sil, 31(%rdx)
movb 32(%rcx), %sil
movb %sil, 32(%rdx)
movb 33(%rcx), %sil
movb %sil, 33(%rdx)
movb 34(%rcx), %sil
movb %sil, 34(%rdx)
movb 35(%rcx), %sil
movb %sil, 35(%rdx)
movb 36(%rcx), %sil
movb %sil, 36(%rdx)
movb 37(%rcx), %sil
movb %sil, 37(%rdx)
movb 38(%rcx), %sil
movb %sil, 38(%rdx)
movb 39(%rcx), %sil
movb %sil, 39(%rdx)
movb 40(%rcx), %sil
movb %sil, 40(%rdx)
movb 41(%rcx), %sil
movb %sil, 41(%rdx)
movb 42(%rcx), %sil
movb %sil, 42(%rdx)
movb 43(%rcx), %sil
movb %sil, 43(%rdx)
movb 44(%rcx), %sil
movb %sil, 44(%rdx)
movb 45(%rcx), %sil
movb %sil, 45(%rdx)
movb 46(%rcx), %sil
movb %sil, 46(%rdx)
movb 47(%rcx), %sil
movb %sil, 47(%rdx)
movb 48(%rcx), %sil
movb %sil, 48(%rdx)
movb 49(%rcx), %sil
movb %sil, 49(%rdx)
movb 50(%rcx), %sil
movb %sil, 50(%rdx)
movb 51(%rcx), %sil
movb %sil, 51(%rdx)
movb 52(%rcx), %sil
movb %sil, 52(%rdx)
movb 53(%rcx), %sil
movb %sil, 53(%rdx)
movb 54(%rcx), %sil
movb %sil, 54(%rdx)
movb 55(%rcx), %sil
movb %sil, 55(%rdx)
movb 56(%rcx), %sil
movb %sil, 56(%rdx)
movb 57(%rcx), %sil
movb %sil, 57(%rdx)
movb 58(%rcx), %sil
movb %sil, 58(%rdx)
movb 59(%rcx), %sil
movb %sil, 59(%rdx)
movb 60(%rcx), %sil
movb %sil, 60(%rdx)
movb 61(%rcx), %sil
movb %sil, 61(%rdx)
movb 62(%rcx), %sil
movb %sil, 62(%rdx)
movb 63(%rcx), %sil
movb %sil, 63(%rdx)
movb 64(%rcx), %sil
movb %sil, 64(%rdx)
movb 65(%rcx), %sil
movb %sil, 65(%rdx)
movb 66(%rcx), %sil
movb %sil, 66(%rdx)
movb 67(%rcx), %sil
movb %sil, 67(%rdx)
movb 68(%rcx), %sil
movb %sil, 68(%rdx)
movb 69(%rcx), %sil
movb %sil, 69(%rdx)
movb 70(%rcx), %sil
movb %sil, 70(%rdx)
movb 71(%rcx), %sil
movb %sil, 71(%rdx)
movb 72(%rcx), %sil
movb %sil, 72(%rdx)
movb 73(%rcx), %sil
movb %sil, 73(%rdx)
movb 74(%rcx), %sil
movb %sil, 74(%rdx)
movb 75(%rcx), %sil
movb %sil, 75(%rdx)
movb 76(%rcx), %sil
movb %sil, 76(%rdx)
movb 77(%rcx), %sil
movb %sil, 77(%rdx)
movb 78(%rcx), %sil
movb %sil, 78(%rdx)
movb 79(%rcx), %sil
movb %sil, 79(%rdx)
movb 80(%rcx), %sil
movb %sil, 80(%rdx)
movb 81(%rcx), %sil
movb %sil, 81(%rdx)
movb 82(%rcx), %sil
movb %sil, 82(%rdx)
movb 83(%rcx), %sil
movb %sil, 83(%rdx)
movb 84(%rcx), %sil
movb %sil, 84(%rdx)
movb 85(%rcx), %sil
movb %sil, 85(%rdx)
movb 86(%rcx), %sil
movb %sil, 86(%rdx)
movb 87(%rcx), %sil
movb %sil, 87(%rdx)
movb 88(%rcx), %sil
movb %sil, 88(%rdx)
movb 89(%rcx), %sil
movb %sil, 89(%rdx)
movb 90(%rcx), %sil
movb %sil, 90(%rdx)
movb 91(%rcx), %sil
movb %sil, 91(%rdx)
movb 92(%rcx), %sil
movb %sil, 92(%rdx)
movb 93(%rcx), %sil
movb %sil, 93(%rdx)
movb 94(%rcx), %sil
movb %sil, 94(%rdx)
movb 95(%rcx), %sil
movb %sil, 95(%rdx)
movb 96(%rcx), %sil
movb %sil, 96(%rdx)
movb 97(%rcx), %sil
movb %sil, 97(%rdx)
movb 98(%rcx), %sil
movb %sil, 98(%rdx)
movb 99(%rcx), %sil
movb %sil, 99(%rdx)
movb 100(%rcx), %sil
movb %sil, 100(%rdx)
movb 101(%rcx), %sil
movb %sil, 101(%rdx)
movb 102(%rcx), %sil
movb %sil, 102(%rdx)
movb 103(%rcx), %sil
movb %sil, 103(%rdx)
movb 104(%rcx), %sil
movb %sil, 104(%rdx)
movb 105(%rcx), %sil
movb %sil, 105(%rdx)
movb 106(%rcx), %sil
movb %sil, 106(%rdx)
movb 107(%rcx), %sil
movb %sil, 107(%rdx)
movb 108(%rcx), %sil
movb %sil, 108(%rdx)
movb 109(%rcx), %sil
movb %sil, 109(%rdx)
movb 110(%rcx), %sil
movb %sil, 110(%rdx)
movb 111(%rcx), %sil
movb %sil, 111(%rdx)
movb 112(%rcx), %sil
movb %sil, 112(%rdx)
movb 113(%rcx), %sil
movb %sil, 113(%rdx)
movb 114(%rcx), %sil
movb %sil, 114(%rdx)
movb 115(%rcx), %sil
movb %sil, 115(%rdx)
movb 116(%rcx), %sil
movb %sil, 116(%rdx)
movb 117(%rcx), %sil
movb %sil, 117(%rdx)
movb 118(%rcx), %sil
movb %sil, 118(%rdx)
movb 119(%rcx), %sil
movb %sil, 119(%rdx)
movb 120(%rcx), %sil
movb %sil, 120(%rdx)
movb 121(%rcx), %sil
movb %sil, 121(%rdx)
movb 122(%rcx), %sil
movb %sil, 122(%rdx)
movb 123(%rcx), %sil
movb %sil, 123(%rdx)
movb 124(%rcx), %sil
movb %sil, 124(%rdx)
movb 125(%rcx), %sil
movb %sil, 125(%rdx)
movb 126(%rcx), %sil
movb %sil, 126(%rdx)
movb 127(%rcx), %sil
movb %sil, 127(%rdx)
movb 128(%rcx), %sil
movb %sil, 128(%rdx)
movb 129(%rcx), %sil
movb %sil, 129(%rdx)
movb 130(%rcx), %sil
movb %sil, 130(%rdx)
movb 131(%rcx), %sil
movb %sil, 131(%rdx)
movb 132(%rcx), %sil
movb %sil, 132(%rdx)
movb 133(%rcx), %sil
movb %sil, 133(%rdx)
movb 134(%rcx), %sil
movb %sil, 134(%rdx)
movb 135(%rcx), %sil
movb %sil, 135(%rdx)
movb 136(%rcx), %sil
movb %sil, 136(%rdx)
movb 137(%rcx), %sil
movb %sil, 137(%rdx)
movb 138(%rcx), %sil
movb %sil, 138(%rdx)
movb 139(%rcx), %sil
movb %sil, 139(%rdx)
movb 140(%rcx), %sil
movb %sil, 140(%rdx)
movb 141(%rcx), %sil
movb %sil, 141(%rdx)
movb 142(%rcx), %sil
movb %sil, 142(%rdx)
movb 143(%rcx), %sil
movb %sil, 143(%rdx)
movb 144(%rcx), %sil
movb %sil, 144(%rdx)
movb 145(%rcx), %sil
movb %sil, 145(%rdx)
movb 146(%rcx), %sil
movb %sil, 146(%rdx)
movb 147(%rcx), %sil
movb %sil, 147(%rdx)
movb 148(%rcx), %sil
movb %sil, 148(%rdx)
movb 149(%rcx), %sil
movb %sil, 149(%rdx)
movb 150(%rcx), %sil
movb %sil, 150(%rdx)
movb 151(%rcx), %sil
movb %sil, 151(%rdx)
movb 152(%rcx), %sil
movb %sil, 152(%rdx)
movb 153(%rcx), %sil
movb %sil, 153(%rdx)
movb 154(%rcx), %sil
movb %sil, 154(%rdx)
movb 155(%rcx), %sil
movb %sil, 155(%rdx)
movb 156(%rcx), %sil
movb %sil, 156(%rdx)
movb 157(%rcx), %sil
movb %sil, 157(%rdx)
movb 158(%rcx), %sil
movb %sil, 158(%rdx)
movb 159(%rcx), %sil
movb %sil, 159(%rdx)
movb 160(%rcx), %sil
movb %sil, 160(%rdx)
movb 161(%rcx), %sil
movb %sil, 161(%rdx)
movb 162(%rcx), %sil
movb %sil, 162(%rdx)
movb 163(%rcx), %sil
movb %sil, 163(%rdx)
movb 164(%rcx), %sil
movb %sil, 164(%rdx)
movb 165(%rcx), %sil
movb %sil, 165(%rdx)
movb 166(%rcx), %sil
movb %sil, 166(%rdx)
movb 167(%rcx), %cl
movb %cl, 167(%rdx)
ret
L_shake128_absorb34$1:
xorq %rsi, %rsi
movq %rsi, (%rcx)
movq %rsi, 8(%rcx)
movq %rsi, 16(%rcx)
movq %rsi, 24(%rcx)
movq %rsi, 32(%rcx)
movq %rsi, 40(%rcx)
movq %rsi, 48(%rcx)
movq %rsi, 56(%rcx)
movq %rsi, 64(%rcx)
movq %rsi, 72(%rcx)
movq %rsi, 80(%rcx)
movq %rsi, 88(%rcx)
movq %rsi, 96(%rcx)
movq %rsi, 104(%rcx)
movq %rsi, 112(%rcx)
movq %rsi, 120(%rcx)
movq %rsi, 128(%rcx)
movq %rsi, 136(%rcx)
movq %rsi, 144(%rcx)
movq %rsi, 152(%rcx)
movq %rsi, 160(%rcx)
movq %rsi, 168(%rcx)
movq %rsi, 176(%rcx)
movq %rsi, 184(%rcx)
movq %rsi, 192(%rcx)
movb (%rdx), %sil
xorb %sil, (%rcx)
movb 1(%rdx), %sil
xorb %sil, 1(%rcx)
movb 2(%rdx), %sil
xorb %sil, 2(%rcx)
movb 3(%rdx), %sil
xorb %sil, 3(%rcx)
movb 4(%rdx), %sil
xorb %sil, 4(%rcx)
movb 5(%rdx), %sil
xorb %sil, 5(%rcx)
movb 6(%rdx), %sil
xorb %sil, 6(%rcx)
movb 7(%rdx), %sil
xorb %sil, 7(%rcx)
movb 8(%rdx), %sil
xorb %sil, 8(%rcx)
movb 9(%rdx), %sil
xorb %sil, 9(%rcx)
movb 10(%rdx), %sil
xorb %sil, 10(%rcx)
movb 11(%rdx), %sil
xorb %sil, 11(%rcx)
movb 12(%rdx), %sil
xorb %sil, 12(%rcx)
movb 13(%rdx), %sil
xorb %sil, 13(%rcx)
movb 14(%rdx), %sil
xorb %sil, 14(%rcx)
movb 15(%rdx), %sil
xorb %sil, 15(%rcx)
movb 16(%rdx), %sil
xorb %sil, 16(%rcx)
movb 17(%rdx), %sil
xorb %sil, 17(%rcx)
movb 18(%rdx), %sil
xorb %sil, 18(%rcx)
movb 19(%rdx), %sil
xorb %sil, 19(%rcx)
movb 20(%rdx), %sil
xorb %sil, 20(%rcx)
movb 21(%rdx), %sil
xorb %sil, 21(%rcx)
movb 22(%rdx), %sil
xorb %sil, 22(%rcx)
movb 23(%rdx), %sil
xorb %sil, 23(%rcx)
movb 24(%rdx), %sil
xorb %sil, 24(%rcx)
movb 25(%rdx), %sil
xorb %sil, 25(%rcx)
movb 26(%rdx), %sil
xorb %sil, 26(%rcx)
movb 27(%rdx), %sil
xorb %sil, 27(%rcx)
movb 28(%rdx), %sil
xorb %sil, 28(%rcx)
movb 29(%rdx), %sil
xorb %sil, 29(%rcx)
movb 30(%rdx), %sil
xorb %sil, 30(%rcx)
movb 31(%rdx), %sil
xorb %sil, 31(%rcx)
movb 32(%rdx), %sil
xorb %sil, 32(%rcx)
movb 33(%rdx), %dl
xorb %dl, 33(%rcx)
xorb $31, 34(%rcx)
xorb $-128, 167(%rcx)
ret
L_sha3_512_32$1:
movq %rcx, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rdx, %rdx
movq %rdx, (%rcx)
movq %rdx, 8(%rcx)
movq %rdx, 16(%rcx)
movq %rdx, 24(%rcx)
movq %rdx, 32(%rcx)
movq %rdx, 40(%rcx)
movq %rdx, 48(%rcx)
movq %rdx, 56(%rcx)
movq %rdx, 64(%rcx)
movq %rdx, 72(%rcx)
movq %rdx, 80(%rcx)
movq %rdx, 88(%rcx)
movq %rdx, 96(%rcx)
movq %rdx, 104(%rcx)
movq %rdx, 112(%rcx)
movq %rdx, 120(%rcx)
movq %rdx, 128(%rcx)
movq %rdx, 136(%rcx)
movq %rdx, 144(%rcx)
movq %rdx, 152(%rcx)
movq %rdx, 160(%rcx)
movq %rdx, 168(%rcx)
movq %rdx, 176(%rcx)
movq %rdx, 184(%rcx)
movq %rdx, 192(%rcx)
movb (%rax), %dl
xorb %dl, (%rcx)
movb 1(%rax), %dl
xorb %dl, 1(%rcx)
movb 2(%rax), %dl
xorb %dl, 2(%rcx)
movb 3(%rax), %dl
xorb %dl, 3(%rcx)
movb 4(%rax), %dl
xorb %dl, 4(%rcx)
movb 5(%rax), %dl
xorb %dl, 5(%rcx)
movb 6(%rax), %dl
xorb %dl, 6(%rcx)
movb 7(%rax), %dl
xorb %dl, 7(%rcx)
movb 8(%rax), %dl
xorb %dl, 8(%rcx)
movb 9(%rax), %dl
xorb %dl, 9(%rcx)
movb 10(%rax), %dl
xorb %dl, 10(%rcx)
movb 11(%rax), %dl
xorb %dl, 11(%rcx)
movb 12(%rax), %dl
xorb %dl, 12(%rcx)
movb 13(%rax), %dl
xorb %dl, 13(%rcx)
movb 14(%rax), %dl
xorb %dl, 14(%rcx)
movb 15(%rax), %dl
xorb %dl, 15(%rcx)
movb 16(%rax), %dl
xorb %dl, 16(%rcx)
movb 17(%rax), %dl
xorb %dl, 17(%rcx)
movb 18(%rax), %dl
xorb %dl, 18(%rcx)
movb 19(%rax), %dl
xorb %dl, 19(%rcx)
movb 20(%rax), %dl
xorb %dl, 20(%rcx)
movb 21(%rax), %dl
xorb %dl, 21(%rcx)
movb 22(%rax), %dl
xorb %dl, 22(%rcx)
movb 23(%rax), %dl
xorb %dl, 23(%rcx)
movb 24(%rax), %dl
xorb %dl, 24(%rcx)
movb 25(%rax), %dl
xorb %dl, 25(%rcx)
movb 26(%rax), %dl
xorb %dl, 26(%rcx)
movb 27(%rax), %dl
xorb %dl, 27(%rcx)
movb 28(%rax), %dl
xorb %dl, 28(%rcx)
movb 29(%rax), %dl
xorb %dl, 29(%rcx)
movb 30(%rax), %dl
xorb %dl, 30(%rcx)
movb 31(%rax), %al
xorb %al, 31(%rcx)
xorb $6, 32(%rcx)
xorb $-128, 71(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_sha3_512_32$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rax
movb (%rcx), %dl
movb %dl, (%rax)
movb 1(%rcx), %dl
movb %dl, 1(%rax)
movb 2(%rcx), %dl
movb %dl, 2(%rax)
movb 3(%rcx), %dl
movb %dl, 3(%rax)
movb 4(%rcx), %dl
movb %dl, 4(%rax)
movb 5(%rcx), %dl
movb %dl, 5(%rax)
movb 6(%rcx), %dl
movb %dl, 6(%rax)
movb 7(%rcx), %dl
movb %dl, 7(%rax)
movb 8(%rcx), %dl
movb %dl, 8(%rax)
movb 9(%rcx), %dl
movb %dl, 9(%rax)
movb 10(%rcx), %dl
movb %dl, 10(%rax)
movb 11(%rcx), %dl
movb %dl, 11(%rax)
movb 12(%rcx), %dl
movb %dl, 12(%rax)
movb 13(%rcx), %dl
movb %dl, 13(%rax)
movb 14(%rcx), %dl
movb %dl, 14(%rax)
movb 15(%rcx), %dl
movb %dl, 15(%rax)
movb 16(%rcx), %dl
movb %dl, 16(%rax)
movb 17(%rcx), %dl
movb %dl, 17(%rax)
movb 18(%rcx), %dl
movb %dl, 18(%rax)
movb 19(%rcx), %dl
movb %dl, 19(%rax)
movb 20(%rcx), %dl
movb %dl, 20(%rax)
movb 21(%rcx), %dl
movb %dl, 21(%rax)
movb 22(%rcx), %dl
movb %dl, 22(%rax)
movb 23(%rcx), %dl
movb %dl, 23(%rax)
movb 24(%rcx), %dl
movb %dl, 24(%rax)
movb 25(%rcx), %dl
movb %dl, 25(%rax)
movb 26(%rcx), %dl
movb %dl, 26(%rax)
movb 27(%rcx), %dl
movb %dl, 27(%rax)
movb 28(%rcx), %dl
movb %dl, 28(%rax)
movb 29(%rcx), %dl
movb %dl, 29(%rax)
movb 30(%rcx), %dl
movb %dl, 30(%rax)
movb 31(%rcx), %dl
movb %dl, 31(%rax)
movb 32(%rcx), %dl
movb %dl, 32(%rax)
movb 33(%rcx), %dl
movb %dl, 33(%rax)
movb 34(%rcx), %dl
movb %dl, 34(%rax)
movb 35(%rcx), %dl
movb %dl, 35(%rax)
movb 36(%rcx), %dl
movb %dl, 36(%rax)
movb 37(%rcx), %dl
movb %dl, 37(%rax)
movb 38(%rcx), %dl
movb %dl, 38(%rax)
movb 39(%rcx), %dl
movb %dl, 39(%rax)
movb 40(%rcx), %dl
movb %dl, 40(%rax)
movb 41(%rcx), %dl
movb %dl, 41(%rax)
movb 42(%rcx), %dl
movb %dl, 42(%rax)
movb 43(%rcx), %dl
movb %dl, 43(%rax)
movb 44(%rcx), %dl
movb %dl, 44(%rax)
movb 45(%rcx), %dl
movb %dl, 45(%rax)
movb 46(%rcx), %dl
movb %dl, 46(%rax)
movb 47(%rcx), %dl
movb %dl, 47(%rax)
movb 48(%rcx), %dl
movb %dl, 48(%rax)
movb 49(%rcx), %dl
movb %dl, 49(%rax)
movb 50(%rcx), %dl
movb %dl, 50(%rax)
movb 51(%rcx), %dl
movb %dl, 51(%rax)
movb 52(%rcx), %dl
movb %dl, 52(%rax)
movb 53(%rcx), %dl
movb %dl, 53(%rax)
movb 54(%rcx), %dl
movb %dl, 54(%rax)
movb 55(%rcx), %dl
movb %dl, 55(%rax)
movb 56(%rcx), %dl
movb %dl, 56(%rax)
movb 57(%rcx), %dl
movb %dl, 57(%rax)
movb 58(%rcx), %dl
movb %dl, 58(%rax)
movb 59(%rcx), %dl
movb %dl, 59(%rax)
movb 60(%rcx), %dl
movb %dl, 60(%rax)
movb 61(%rcx), %dl
movb %dl, 61(%rax)
movb 62(%rcx), %dl
movb %dl, 62(%rax)
movb 63(%rcx), %cl
movb %cl, 63(%rax)
ret
L_shake256_128_33$1:
movq %rcx, 8(%rsp)
leaq 16(%rsp), %rcx
xorq %rsi, %rsi
movq %rsi, (%rcx)
movq %rsi, 8(%rcx)
movq %rsi, 16(%rcx)
movq %rsi, 24(%rcx)
movq %rsi, 32(%rcx)
movq %rsi, 40(%rcx)
movq %rsi, 48(%rcx)
movq %rsi, 56(%rcx)
movq %rsi, 64(%rcx)
movq %rsi, 72(%rcx)
movq %rsi, 80(%rcx)
movq %rsi, 88(%rcx)
movq %rsi, 96(%rcx)
movq %rsi, 104(%rcx)
movq %rsi, 112(%rcx)
movq %rsi, 120(%rcx)
movq %rsi, 128(%rcx)
movq %rsi, 136(%rcx)
movq %rsi, 144(%rcx)
movq %rsi, 152(%rcx)
movq %rsi, 160(%rcx)
movq %rsi, 168(%rcx)
movq %rsi, 176(%rcx)
movq %rsi, 184(%rcx)
movq %rsi, 192(%rcx)
movb (%rdx), %sil
xorb %sil, (%rcx)
movb 1(%rdx), %sil
xorb %sil, 1(%rcx)
movb 2(%rdx), %sil
xorb %sil, 2(%rcx)
movb 3(%rdx), %sil
xorb %sil, 3(%rcx)
movb 4(%rdx), %sil
xorb %sil, 4(%rcx)
movb 5(%rdx), %sil
xorb %sil, 5(%rcx)
movb 6(%rdx), %sil
xorb %sil, 6(%rcx)
movb 7(%rdx), %sil
xorb %sil, 7(%rcx)
movb 8(%rdx), %sil
xorb %sil, 8(%rcx)
movb 9(%rdx), %sil
xorb %sil, 9(%rcx)
movb 10(%rdx), %sil
xorb %sil, 10(%rcx)
movb 11(%rdx), %sil
xorb %sil, 11(%rcx)
movb 12(%rdx), %sil
xorb %sil, 12(%rcx)
movb 13(%rdx), %sil
xorb %sil, 13(%rcx)
movb 14(%rdx), %sil
xorb %sil, 14(%rcx)
movb 15(%rdx), %sil
xorb %sil, 15(%rcx)
movb 16(%rdx), %sil
xorb %sil, 16(%rcx)
movb 17(%rdx), %sil
xorb %sil, 17(%rcx)
movb 18(%rdx), %sil
xorb %sil, 18(%rcx)
movb 19(%rdx), %sil
xorb %sil, 19(%rcx)
movb 20(%rdx), %sil
xorb %sil, 20(%rcx)
movb 21(%rdx), %sil
xorb %sil, 21(%rcx)
movb 22(%rdx), %sil
xorb %sil, 22(%rcx)
movb 23(%rdx), %sil
xorb %sil, 23(%rcx)
movb 24(%rdx), %sil
xorb %sil, 24(%rcx)
movb 25(%rdx), %sil
xorb %sil, 25(%rcx)
movb 26(%rdx), %sil
xorb %sil, 26(%rcx)
movb 27(%rdx), %sil
xorb %sil, 27(%rcx)
movb 28(%rdx), %sil
xorb %sil, 28(%rcx)
movb 29(%rdx), %sil
xorb %sil, 29(%rcx)
movb 30(%rdx), %sil
xorb %sil, 30(%rcx)
movb 31(%rdx), %sil
xorb %sil, 31(%rcx)
movb 32(%rdx), %dl
xorb %dl, 32(%rcx)
xorb $31, 33(%rcx)
xorb $-128, 135(%rcx)
leaq -224(%rsp), %rsp
call L_keccakf1600_ref1$1
L_shake256_128_33$2:
leaq 224(%rsp), %rsp
movq 8(%rsp), %rdx
movb (%rcx), %sil
movb %sil, (%rdx)
movb 1(%rcx), %sil
movb %sil, 1(%rdx)
movb 2(%rcx), %sil
movb %sil, 2(%rdx)
movb 3(%rcx), %sil
movb %sil, 3(%rdx)
movb 4(%rcx), %sil
movb %sil, 4(%rdx)
movb 5(%rcx), %sil
movb %sil, 5(%rdx)
movb 6(%rcx), %sil
movb %sil, 6(%rdx)
movb 7(%rcx), %sil
movb %sil, 7(%rdx)
movb 8(%rcx), %sil
movb %sil, 8(%rdx)
movb 9(%rcx), %sil
movb %sil, 9(%rdx)
movb 10(%rcx), %sil
movb %sil, 10(%rdx)
movb 11(%rcx), %sil
movb %sil, 11(%rdx)
movb 12(%rcx), %sil
movb %sil, 12(%rdx)
movb 13(%rcx), %sil
movb %sil, 13(%rdx)
movb 14(%rcx), %sil
movb %sil, 14(%rdx)
movb 15(%rcx), %sil
movb %sil, 15(%rdx)
movb 16(%rcx), %sil
movb %sil, 16(%rdx)
movb 17(%rcx), %sil
movb %sil, 17(%rdx)
movb 18(%rcx), %sil
movb %sil, 18(%rdx)
movb 19(%rcx), %sil
movb %sil, 19(%rdx)
movb 20(%rcx), %sil
movb %sil, 20(%rdx)
movb 21(%rcx), %sil
movb %sil, 21(%rdx)
movb 22(%rcx), %sil
movb %sil, 22(%rdx)
movb 23(%rcx), %sil
movb %sil, 23(%rdx)
movb 24(%rcx), %sil
movb %sil, 24(%rdx)
movb 25(%rcx), %sil
movb %sil, 25(%rdx)
movb 26(%rcx), %sil
movb %sil, 26(%rdx)
movb 27(%rcx), %sil
movb %sil, 27(%rdx)
movb 28(%rcx), %sil
movb %sil, 28(%rdx)
movb 29(%rcx), %sil
movb %sil, 29(%rdx)
movb 30(%rcx), %sil
movb %sil, 30(%rdx)
movb 31(%rcx), %sil
movb %sil, 31(%rdx)
movb 32(%rcx), %sil
movb %sil, 32(%rdx)
movb 33(%rcx), %sil
movb %sil, 33(%rdx)
movb 34(%rcx), %sil
movb %sil, 34(%rdx)
movb 35(%rcx), %sil
movb %sil, 35(%rdx)
movb 36(%rcx), %sil
movb %sil, 36(%rdx)
movb 37(%rcx), %sil
movb %sil, 37(%rdx)
movb 38(%rcx), %sil
movb %sil, 38(%rdx)
movb 39(%rcx), %sil
movb %sil, 39(%rdx)
movb 40(%rcx), %sil
movb %sil, 40(%rdx)
movb 41(%rcx), %sil
movb %sil, 41(%rdx)
movb 42(%rcx), %sil
movb %sil, 42(%rdx)
movb 43(%rcx), %sil
movb %sil, 43(%rdx)
movb 44(%rcx), %sil
movb %sil, 44(%rdx)
movb 45(%rcx), %sil
movb %sil, 45(%rdx)
movb 46(%rcx), %sil
movb %sil, 46(%rdx)
movb 47(%rcx), %sil
movb %sil, 47(%rdx)
movb 48(%rcx), %sil
movb %sil, 48(%rdx)
movb 49(%rcx), %sil
movb %sil, 49(%rdx)
movb 50(%rcx), %sil
movb %sil, 50(%rdx)
movb 51(%rcx), %sil
movb %sil, 51(%rdx)
movb 52(%rcx), %sil
movb %sil, 52(%rdx)
movb 53(%rcx), %sil
movb %sil, 53(%rdx)
movb 54(%rcx), %sil
movb %sil, 54(%rdx)
movb 55(%rcx), %sil
movb %sil, 55(%rdx)
movb 56(%rcx), %sil
movb %sil, 56(%rdx)
movb 57(%rcx), %sil
movb %sil, 57(%rdx)
movb 58(%rcx), %sil
movb %sil, 58(%rdx)
movb 59(%rcx), %sil
movb %sil, 59(%rdx)
movb 60(%rcx), %sil
movb %sil, 60(%rdx)
movb 61(%rcx), %sil
movb %sil, 61(%rdx)
movb 62(%rcx), %sil
movb %sil, 62(%rdx)
movb 63(%rcx), %sil
movb %sil, 63(%rdx)
movb 64(%rcx), %sil
movb %sil, 64(%rdx)
movb 65(%rcx), %sil
movb %sil, 65(%rdx)
movb 66(%rcx), %sil
movb %sil, 66(%rdx)
movb 67(%rcx), %sil
movb %sil, 67(%rdx)
movb 68(%rcx), %sil
movb %sil, 68(%rdx)
movb 69(%rcx), %sil
movb %sil, 69(%rdx)
movb 70(%rcx), %sil
movb %sil, 70(%rdx)
movb 71(%rcx), %sil
movb %sil, 71(%rdx)
movb 72(%rcx), %sil
movb %sil, 72(%rdx)
movb 73(%rcx), %sil
movb %sil, 73(%rdx)
movb 74(%rcx), %sil
movb %sil, 74(%rdx)
movb 75(%rcx), %sil
movb %sil, 75(%rdx)
movb 76(%rcx), %sil
movb %sil, 76(%rdx)
movb 77(%rcx), %sil
movb %sil, 77(%rdx)
movb 78(%rcx), %sil
movb %sil, 78(%rdx)
movb 79(%rcx), %sil
movb %sil, 79(%rdx)
movb 80(%rcx), %sil
movb %sil, 80(%rdx)
movb 81(%rcx), %sil
movb %sil, 81(%rdx)
movb 82(%rcx), %sil
movb %sil, 82(%rdx)
movb 83(%rcx), %sil
movb %sil, 83(%rdx)
movb 84(%rcx), %sil
movb %sil, 84(%rdx)
movb 85(%rcx), %sil
movb %sil, 85(%rdx)
movb 86(%rcx), %sil
movb %sil, 86(%rdx)
movb 87(%rcx), %sil
movb %sil, 87(%rdx)
movb 88(%rcx), %sil
movb %sil, 88(%rdx)
movb 89(%rcx), %sil
movb %sil, 89(%rdx)
movb 90(%rcx), %sil
movb %sil, 90(%rdx)
movb 91(%rcx), %sil
movb %sil, 91(%rdx)
movb 92(%rcx), %sil
movb %sil, 92(%rdx)
movb 93(%rcx), %sil
movb %sil, 93(%rdx)
movb 94(%rcx), %sil
movb %sil, 94(%rdx)
movb 95(%rcx), %sil
movb %sil, 95(%rdx)
movb 96(%rcx), %sil
movb %sil, 96(%rdx)
movb 97(%rcx), %sil
movb %sil, 97(%rdx)
movb 98(%rcx), %sil
movb %sil, 98(%rdx)
movb 99(%rcx), %sil
movb %sil, 99(%rdx)
movb 100(%rcx), %sil
movb %sil, 100(%rdx)
movb 101(%rcx), %sil
movb %sil, 101(%rdx)
movb 102(%rcx), %sil
movb %sil, 102(%rdx)
movb 103(%rcx), %sil
movb %sil, 103(%rdx)
movb 104(%rcx), %sil
movb %sil, 104(%rdx)
movb 105(%rcx), %sil
movb %sil, 105(%rdx)
movb 106(%rcx), %sil
movb %sil, 106(%rdx)
movb 107(%rcx), %sil
movb %sil, 107(%rdx)
movb 108(%rcx), %sil
movb %sil, 108(%rdx)
movb 109(%rcx), %sil
movb %sil, 109(%rdx)
movb 110(%rcx), %sil
movb %sil, 110(%rdx)
movb 111(%rcx), %sil
movb %sil, 111(%rdx)
movb 112(%rcx), %sil
movb %sil, 112(%rdx)
movb 113(%rcx), %sil
movb %sil, 113(%rdx)
movb 114(%rcx), %sil
movb %sil, 114(%rdx)
movb 115(%rcx), %sil
movb %sil, 115(%rdx)
movb 116(%rcx), %sil
movb %sil, 116(%rdx)
movb 117(%rcx), %sil
movb %sil, 117(%rdx)
movb 118(%rcx), %sil
movb %sil, 118(%rdx)
movb 119(%rcx), %sil
movb %sil, 119(%rdx)
movb 120(%rcx), %sil
movb %sil, 120(%rdx)
movb 121(%rcx), %sil
movb %sil, 121(%rdx)
movb 122(%rcx), %sil
movb %sil, 122(%rdx)
movb 123(%rcx), %sil
movb %sil, 123(%rdx)
movb 124(%rcx), %sil
movb %sil, 124(%rdx)
movb 125(%rcx), %sil
movb %sil, 125(%rdx)
movb 126(%rcx), %sil
movb %sil, 126(%rdx)
movb 127(%rcx), %cl
movb %cl, 127(%rdx)
ret
L_keccakf1600_ref1$1:
leaq glob_data + 0(%rip), %rdx
movq %rdx, 8(%rsp)
leaq 32(%rsp), %rdx
movq $0, %r11
jmp L_keccakf1600_ref1$2
L_keccakf1600_ref1$3:
movq %r11, 16(%rsp)
movq 8(%rsp), %rsi
movq (%rsi,%r11,8), %rsi
movq %rsi, 24(%rsp)
movq (%rcx), %r10
movq 8(%rcx), %r9
movq 16(%rcx), %rbx
movq 24(%rcx), %rbp
movq 32(%rcx), %r12
xorq 40(%rcx), %r10
xorq 48(%rcx), %r9
xorq 56(%rcx), %rbx
xorq 64(%rcx), %rbp
xorq 72(%rcx), %r12
xorq 80(%rcx), %r10
xorq 88(%rcx), %r9
xorq 96(%rcx), %rbx
xorq 104(%rcx), %rbp
xorq 112(%rcx), %r12
xorq 120(%rcx), %r10
xorq 128(%rcx), %r9
xorq 136(%rcx), %rbx
xorq 144(%rcx), %rbp
xorq 152(%rcx), %r12
xorq 160(%rcx), %r10
xorq 168(%rcx), %r9
xorq 176(%rcx), %rbx
xorq 184(%rcx), %rbp
xorq 192(%rcx), %r12
movq %r9, %rsi
rolq $1, %rsi
xorq %r12, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r10, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r9, %r8
movq %r12, %r9
rolq $1, %r9
xorq %rbx, %r9
rolq $1, %r10
xorq %rbp, %r10
movq (%rcx), %rbx
xorq %rsi, %rbx
movq 48(%rcx), %rbp
xorq %rdi, %rbp
rolq $44, %rbp
movq 96(%rcx), %r12
xorq %r8, %r12
rolq $43, %r12
movq 144(%rcx), %r13
xorq %r9, %r13
rolq $21, %r13
movq 192(%rcx), %r14
xorq %r10, %r14
rolq $14, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
xorq 24(%rsp), %r15
movq %r15, (%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 8(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 16(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 24(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 32(%rdx)
movq 24(%rcx), %rbx
xorq %r9, %rbx
rolq $28, %rbx
movq 72(%rcx), %rbp
xorq %r10, %rbp
rolq $20, %rbp
movq 80(%rcx), %r12
xorq %rsi, %r12
rolq $3, %r12
movq 128(%rcx), %r13
xorq %rdi, %r13
rolq $45, %r13
movq 176(%rcx), %r14
xorq %r8, %r14
rolq $61, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 40(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 48(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 56(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 64(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 72(%rdx)
movq 8(%rcx), %rbx
xorq %rdi, %rbx
rolq $1, %rbx
movq 56(%rcx), %rbp
xorq %r8, %rbp
rolq $6, %rbp
movq 104(%rcx), %r12
xorq %r9, %r12
rolq $25, %r12
movq 152(%rcx), %r13
xorq %r10, %r13
rolq $8, %r13
movq 160(%rcx), %r14
xorq %rsi, %r14
rolq $18, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 80(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 88(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 96(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 104(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 112(%rdx)
movq 32(%rcx), %rbx
xorq %r10, %rbx
rolq $27, %rbx
movq 40(%rcx), %rbp
xorq %rsi, %rbp
rolq $36, %rbp
movq 88(%rcx), %r12
xorq %rdi, %r12
rolq $10, %r12
movq 136(%rcx), %r13
xorq %r8, %r13
rolq $15, %r13
movq 184(%rcx), %r14
xorq %r9, %r14
rolq $56, %r14
movq %rbp, %r15
notq %r15
andq %r12, %r15
xorq %rbx, %r15
movq %r15, 120(%rdx)
movq %r12, %r15
notq %r15
andq %r13, %r15
xorq %rbp, %r15
movq %r15, 128(%rdx)
movq %r13, %r15
notq %r15
andq %r14, %r15
xorq %r12, %r15
movq %r15, 136(%rdx)
movq %r14, %r12
notq %r12
andq %rbx, %r12
xorq %r13, %r12
movq %r12, 144(%rdx)
notq %rbx
andq %rbp, %rbx
xorq %r14, %rbx
movq %rbx, 152(%rdx)
movq 16(%rcx), %rbx
xorq %r8, %rbx
rolq $62, %rbx
movq 64(%rcx), %r8
xorq %r9, %r8
rolq $55, %r8
movq 112(%rcx), %r9
xorq %r10, %r9
rolq $39, %r9
movq 120(%rcx), %r10
xorq %rsi, %r10
rolq $41, %r10
movq 168(%rcx), %rsi
xorq %rdi, %rsi
rolq $2, %rsi
movq %r8, %rdi
notq %rdi
andq %r9, %rdi
xorq %rbx, %rdi
movq %rdi, 160(%rdx)
movq %r9, %rdi
notq %rdi
andq %r10, %rdi
xorq %r8, %rdi
movq %rdi, 168(%rdx)
movq %r10, %rdi
notq %rdi
andq %rsi, %rdi
xorq %r9, %rdi
movq %rdi, 176(%rdx)
movq %rsi, %rdi
notq %rdi
andq %rbx, %rdi
xorq %r10, %rdi
movq %rdi, 184(%rdx)
notq %rbx
andq %r8, %rbx
xorq %rsi, %rbx
movq %rbx, 192(%rdx)
movq 8(%rsp), %rsi
movq 8(%rsi,%r11,8), %rsi
movq %rsi, 24(%rsp)
movq (%rdx), %r10
movq 8(%rdx), %r9
movq 16(%rdx), %r11
movq 24(%rdx), %rbx
movq 32(%rdx), %rbp
xorq 40(%rdx), %r10
xorq 48(%rdx), %r9
xorq 56(%rdx), %r11
xorq 64(%rdx), %rbx
xorq 72(%rdx), %rbp
xorq 80(%rdx), %r10
xorq 88(%rdx), %r9
xorq 96(%rdx), %r11
xorq 104(%rdx), %rbx
xorq 112(%rdx), %rbp
xorq 120(%rdx), %r10
xorq 128(%rdx), %r9
xorq 136(%rdx), %r11
xorq 144(%rdx), %rbx
xorq 152(%rdx), %rbp
xorq 160(%rdx), %r10
xorq 168(%rdx), %r9
xorq 176(%rdx), %r11
xorq 184(%rdx), %rbx
xorq 192(%rdx), %rbp
movq %r9, %rsi
rolq $1, %rsi
xorq %rbp, %rsi
movq %r11, %rdi
rolq $1, %rdi
xorq %r10, %rdi
movq %rbx, %r8
rolq $1, %r8
xorq %r9, %r8
movq %rbp, %r9
rolq $1, %r9
xorq %r11, %r9
rolq $1, %r10
xorq %rbx, %r10
movq (%rdx), %r11
xorq %rsi, %r11
movq 48(%rdx), %rbx
xorq %rdi, %rbx
rolq $44, %rbx
movq 96(%rdx), %rbp
xorq %r8, %rbp
rolq $43, %rbp
movq 144(%rdx), %r12
xorq %r9, %r12
rolq $21, %r12
movq 192(%rdx), %r13
xorq %r10, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq 24(%rsp), %r14
movq %r14, (%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 8(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 16(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 24(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 32(%rcx)
movq 24(%rdx), %r11
xorq %r9, %r11
rolq $28, %r11
movq 72(%rdx), %rbx
xorq %r10, %rbx
rolq $20, %rbx
movq 80(%rdx), %rbp
xorq %rsi, %rbp
rolq $3, %rbp
movq 128(%rdx), %r12
xorq %rdi, %r12
rolq $45, %r12
movq 176(%rdx), %r13
xorq %r8, %r13
rolq $61, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 40(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 48(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 56(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 64(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 72(%rcx)
movq 8(%rdx), %r11
xorq %rdi, %r11
rolq $1, %r11
movq 56(%rdx), %rbx
xorq %r8, %rbx
rolq $6, %rbx
movq 104(%rdx), %rbp
xorq %r9, %rbp
rolq $25, %rbp
movq 152(%rdx), %r12
xorq %r10, %r12
rolq $8, %r12
movq 160(%rdx), %r13
xorq %rsi, %r13
rolq $18, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 80(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 88(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 96(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 104(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 112(%rcx)
movq 32(%rdx), %r11
xorq %r10, %r11
rolq $27, %r11
movq 40(%rdx), %rbx
xorq %rsi, %rbx
rolq $36, %rbx
movq 88(%rdx), %rbp
xorq %rdi, %rbp
rolq $10, %rbp
movq 136(%rdx), %r12
xorq %r8, %r12
rolq $15, %r12
movq 184(%rdx), %r13
xorq %r9, %r13
rolq $56, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
movq %r14, 120(%rcx)
movq %rbp, %r14
notq %r14
andq %r12, %r14
xorq %rbx, %r14
movq %r14, 128(%rcx)
movq %r12, %r14
notq %r14
andq %r13, %r14
xorq %rbp, %r14
movq %r14, 136(%rcx)
movq %r13, %rbp
notq %rbp
andq %r11, %rbp
xorq %r12, %rbp
movq %rbp, 144(%rcx)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 152(%rcx)
movq 16(%rdx), %r11
xorq %r8, %r11
rolq $62, %r11
movq 64(%rdx), %r8
xorq %r9, %r8
rolq $55, %r8
movq 112(%rdx), %r9
xorq %r10, %r9
rolq $39, %r9
movq 120(%rdx), %r10
xorq %rsi, %r10
rolq $41, %r10
movq 168(%rdx), %rsi
xorq %rdi, %rsi
rolq $2, %rsi
movq %r8, %rdi
notq %rdi
andq %r9, %rdi
xorq %r11, %rdi
movq %rdi, 160(%rcx)
movq %r9, %rdi
notq %rdi
andq %r10, %rdi
xorq %r8, %rdi
movq %rdi, 168(%rcx)
movq %r10, %rdi
notq %rdi
andq %rsi, %rdi
xorq %r9, %rdi
movq %rdi, 176(%rcx)
movq %rsi, %rdi
notq %rdi
andq %r11, %rdi
xorq %r10, %rdi
movq %rdi, 184(%rcx)
notq %r11
andq %r8, %r11
xorq %rsi, %r11
movq %r11, 192(%rcx)
movq 16(%rsp), %r11
addq $2, %r11
L_keccakf1600_ref1$2:
cmpq $23, %r11
jb L_keccakf1600_ref1$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -91
.byte 6
.byte 15
.byte 7
.byte -76
.byte 5
.byte 67
.byte 9
.byte 34
.byte 9
.byte 29
.byte 9
.byte 52
.byte 1
.byte 108
.byte 0
.byte 35
.byte 11
.byte 102
.byte 3
.byte 86
.byte 3
.byte -26
.byte 5
.byte -25
.byte 9
.byte -2
.byte 4
.byte -6
.byte 5
.byte -95
.byte 4
.byte 123
.byte 6
.byte -93
.byte 4
.byte 37
.byte 12
.byte 106
.byte 3
.byte 55
.byte 5
.byte 63
.byte 8
.byte -120
.byte 0
.byte -65
.byte 4
.byte -127
.byte 11
.byte -71
.byte 5
.byte 5
.byte 5
.byte -41
.byte 7
.byte -97
.byte 10
.byte -90
.byte 10
.byte -72
.byte 8
.byte -48
.byte 9
.byte 75
.byte 0
.byte -100
.byte 0
.byte -72
.byte 11
.byte 95
.byte 11
.byte -92
.byte 11
.byte 104
.byte 3
.byte 125
.byte 10
.byte 54
.byte 6
.byte -94
.byte 8
.byte 90
.byte 2
.byte 54
.byte 7
.byte 9
.byte 3
.byte -109
.byte 0
.byte 122
.byte 8
.byte -9
.byte 9
.byte -10
.byte 0
.byte -116
.byte 6
.byte -37
.byte 6
.byte -52
.byte 1
.byte 35
.byte 1
.byte -21
.byte 0
.byte 80
.byte 12
.byte -74
.byte 10
.byte 91
.byte 11
.byte -104
.byte 12
.byte -13
.byte 6
.byte -102
.byte 9
.byte -29
.byte 4
.byte -74
.byte 9
.byte -42
.byte 10
.byte 83
.byte 11
.byte 79
.byte 4
.byte -5
.byte 4
.byte 92
.byte 10
.byte 41
.byte 4
.byte 65
.byte 11
.byte -43
.byte 2
.byte -28
.byte 5
.byte 64
.byte 9
.byte -114
.byte 1
.byte -73
.byte 3
.byte -9
.byte 0
.byte -115
.byte 5
.byte -106
.byte 12
.byte -61
.byte 9
.byte 15
.byte 1
.byte 90
.byte 0
.byte 85
.byte 3
.byte 68
.byte 7
.byte -125
.byte 12
.byte -118
.byte 4
.byte 82
.byte 6
.byte -102
.byte 2
.byte 64
.byte 1
.byte 8
.byte 0
.byte -3
.byte 10
.byte 8
.byte 6
.byte 26
.byte 1
.byte 46
.byte 7
.byte 13
.byte 5
.byte 10
.byte 9
.byte 40
.byte 2
.byte 117
.byte 10
.byte 58
.byte 8
.byte 35
.byte 6
.byte -51
.byte 0
.byte 102
.byte 11
.byte 6
.byte 6
.byte -95
.byte 10
.byte 37
.byte 10
.byte 8
.byte 9
.byte -87
.byte 2
.byte -126
.byte 0
.byte 66
.byte 6
.byte 79
.byte 7
.byte 61
.byte 3
.byte -126
.byte 11
.byte -7
.byte 11
.byte 45
.byte 5
.byte -60
.byte 10
.byte 69
.byte 7
.byte -62
.byte 5
.byte -78
.byte 4
.byte 63
.byte 9
.byte 75
.byte 12
.byte -40
.byte 6
.byte -109
.byte 10
.byte -85
.byte 0
.byte 55
.byte 12
.byte -30
.byte 11
.byte 115
.byte 7
.byte 44
.byte 7
.byte -19
.byte 5
.byte 103
.byte 1
.byte -10
.byte 2
.byte -95
.byte 5
.byte -19
.byte 8
.byte 11
.byte 10
.byte -102
.byte 11
.byte 20
.byte 7
.byte -43
.byte 5
.byte -114
.byte 5
.byte 31
.byte 1
.byte -54
.byte 0
.byte 86
.byte 12
.byte 110
.byte 2
.byte 41
.byte 6
.byte -74
.byte 0
.byte -62
.byte 3
.byte 79
.byte 8
.byte 63
.byte 7
.byte -68
.byte 5
.byte 61
.byte 2
.byte -44
.byte 7
.byte 8
.byte 1
.byte 127
.byte 1
.byte -60
.byte 9
.byte -78
.byte 5
.byte -65
.byte 6
.byte 127
.byte 12
.byte 88
.byte 10
.byte -7
.byte 3
.byte -36
.byte 2
.byte 96
.byte 2
.byte -5
.byte 6
.byte -101
.byte 1
.byte 52
.byte 12
.byte -34
.byte 6
.byte -57
.byte 4
.byte -116
.byte 2
.byte -39
.byte 10
.byte -9
.byte 3
.byte -12
.byte 7
.byte -45
.byte 5
.byte -25
.byte 11
.byte -7
.byte 6
.byte 4
.byte 2
.byte -7
.byte 12
.byte -63
.byte 11
.byte 103
.byte 10
.byte -81
.byte 6
.byte 119
.byte 8
.byte 126
.byte 0
.byte -67
.byte 5
.byte -84
.byte 9
.byte -89
.byte 12
.byte -14
.byte 11
.byte 62
.byte 3
.byte 107
.byte 0
.byte 116
.byte 7
.byte 10
.byte 12
.byte 74
.byte 9
.byte 115
.byte 11
.byte -63
.byte 3
.byte 29
.byte 7
.byte 44
.byte 10
.byte -64
.byte 1
.byte -40
.byte 8
.byte -91
.byte 2
.byte 6
.byte 8
.byte -78
.byte 8
.byte -82
.byte 1
.byte 43
.byte 2
.byte 75
.byte 3
.byte 30
.byte 8
.byte 103
.byte 3
.byte 14
.byte 6
.byte 105
.byte 0
.byte -90
.byte 1
.byte 75
.byte 2
.byte -79
.byte 0
.byte 22
.byte 12
.byte -34
.byte 11
.byte 53
.byte 11
.byte 38
.byte 6
.byte 117
.byte 6
.byte 11
.byte 12
.byte 10
.byte 3
.byte -121
.byte 4
.byte 110
.byte 12
.byte -8
.byte 9
.byte -53
.byte 5
.byte -89
.byte 10
.byte 95
.byte 4
.byte -53
.byte 6
.byte -124
.byte 2
.byte -103
.byte 9
.byte 93
.byte 1
.byte -94
.byte 1
.byte 73
.byte 1
.byte 101
.byte 12
.byte -74
.byte 12
.byte 49
.byte 3
.byte 73
.byte 4
.byte 91
.byte 2
.byte 98
.byte 2
.byte 42
.byte 5
.byte -4
.byte 7
.byte 72
.byte 7
.byte -128
.byte 1
.byte 66
.byte 8
.byte 121
.byte 12
.byte -62
.byte 4
.byte -54
.byte 7
.byte -105
.byte 9
.byte -36
.byte 0
.byte 94
.byte 8
.byte -122
.byte 6
.byte 96
.byte 8
.byte 7
.byte 7
.byte 3
.byte 8
.byte 26
.byte 3
.byte 27
.byte 7
.byte -85
.byte 9
.byte -101
.byte 9
.byte -34
.byte 1
.byte -107
.byte 12
.byte -51
.byte 11
.byte -28
.byte 3
.byte -33
.byte 3
.byte -66
.byte 3
.byte 77
.byte 7
.byte -14
.byte 5
.byte 92
.byte 6
|
verdict-x509/verdict
| 32,893
|
deps/libcrux/sys/libjade/jazz/poly1305_avx2.s
|
.att_syntax
.text
.p2align 5
.globl _jade_onetimeauth_poly1305_amd64_avx2_verify
.globl jade_onetimeauth_poly1305_amd64_avx2_verify
.globl _jade_onetimeauth_poly1305_amd64_avx2
.globl jade_onetimeauth_poly1305_amd64_avx2
_jade_onetimeauth_poly1305_amd64_avx2_verify:
jade_onetimeauth_poly1305_amd64_avx2_verify:
movq %rsp, %rax
leaq -696(%rsp), %rsp
andq $-32, %rsp
movq %rax, 688(%rsp)
movq %rbx, 640(%rsp)
movq %rbp, 648(%rsp)
movq %r12, 656(%rsp)
movq %r13, 664(%rsp)
movq %r14, 672(%rsp)
movq %r15, 680(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $256, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$1
movq $0, %rbx
movq $0, %r12
movq $0, %r8
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r9
shrq $2, %r9
addq %r13, %r9
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$9
Ljade_onetimeauth_poly1305_amd64_avx2_verify$10:
addq (%rsi), %rbx
adcq 8(%rsi), %r12
adcq $1, %r8
movq %r9, %r11
imulq %r8, %r11
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %r11, %r12
movq %rax, %r11
movq %r13, %rax
mulq %rbx
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r12
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r12
adcq $0, %r8
movq %r9, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %r9, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %r13, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r12
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2_verify$8:
movq %rbx, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbx, %rax
xorq %r12, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbx, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$2
Ljade_onetimeauth_poly1305_amd64_avx2_verify$1:
movq (%r15), %rbp
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %rbp
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %r12
shrq $2, %r12
addq %r13, %r12
addq $16, %r15
movq %rbp, %r8
movq %r13, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 344(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 376(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 408(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 440(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 472(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 336(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 368(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 400(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 464(%rsp)
movq %r12, %r10
imulq %rbx, %r10
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %rbp, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r13, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 328(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 360(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 392(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 424(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 456(%rsp)
movq %r12, %r9
imulq %rbx, %r9
imulq %rbp, %rbx
movq %rbp, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %r12, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r13, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 320(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 352(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 384(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 416(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
vpbroadcastq glob_data + 16(%rip), %ymm0
vpmuludq 352(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 64(%rsp)
vpmuludq 384(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 96(%rsp)
vpmuludq 416(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 128(%rsp)
vpmuludq 448(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vpbroadcastq 320(%rsp), %ymm0
vmovdqu %ymm0, 480(%rsp)
vpbroadcastq 352(%rsp), %ymm0
vmovdqu %ymm0, 512(%rsp)
vpbroadcastq 384(%rsp), %ymm0
vmovdqu %ymm0, 544(%rsp)
vpbroadcastq 416(%rsp), %ymm0
vmovdqu %ymm0, 576(%rsp)
vpbroadcastq 448(%rsp), %ymm0
vmovdqu %ymm0, 608(%rsp)
vpbroadcastq 64(%rsp), %ymm0
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq 96(%rsp), %ymm0
vmovdqu %ymm0, 224(%rsp)
vpbroadcastq 128(%rsp), %ymm0
vmovdqu %ymm0, 256(%rsp)
vpbroadcastq 160(%rsp), %ymm0
vmovdqu %ymm0, 288(%rsp)
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpbroadcastq glob_data + 8(%rip), %ymm7
vmovdqu %ymm7, (%rsp)
vpbroadcastq glob_data + 0(%rip), %ymm2
vmovdqu %ymm2, 32(%rsp)
vmovdqu (%rsi), %ymm2
vmovdqu 32(%rsi), %ymm5
addq $64, %rsi
vperm2i128 $32, %ymm5, %ymm2, %ymm9
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vpsrldq $6, %ymm9, %ymm5
vpsrldq $6, %ymm2, %ymm10
vpunpckhqdq %ymm2, %ymm9, %ymm8
vpunpcklqdq %ymm2, %ymm9, %ymm9
vpunpcklqdq %ymm10, %ymm5, %ymm10
vpsrlq $4, %ymm10, %ymm2
vpand %ymm7, %ymm2, %ymm2
vpsrlq $26, %ymm9, %ymm11
vpand %ymm7, %ymm9, %ymm5
vpsrlq $30, %ymm10, %ymm9
vpand %ymm7, %ymm9, %ymm9
vpsrlq $40, %ymm8, %ymm8
vpor 32(%rsp), %ymm8, %ymm10
vpand %ymm7, %ymm11, %ymm11
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$6
Ljade_onetimeauth_poly1305_amd64_avx2_verify$7:
vmovdqu 480(%rsp), %ymm8
vmovdqu 512(%rsp), %ymm7
vmovdqu 288(%rsp), %ymm13
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpmuludq %ymm8, %ymm0, %ymm5
vpaddq %ymm2, %ymm6, %ymm2
vpmuludq %ymm7, %ymm0, %ymm6
vpaddq %ymm9, %ymm3, %ymm3
vpmuludq %ymm8, %ymm1, %ymm9
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm1, %ymm12
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm7, %ymm2, %ymm10
vpmuludq %ymm8, %ymm3, %ymm11
vpaddq %ymm6, %ymm9, %ymm6
vpmuludq %ymm7, %ymm3, %ymm9
vpaddq %ymm12, %ymm14, %ymm7
vpmuludq %ymm8, %ymm4, %ymm8
vpaddq %ymm10, %ymm11, %ymm11
vpaddq %ymm9, %ymm8, %ymm12
vpmuludq %ymm13, %ymm1, %ymm14
vmovdqu (%rsi), %ymm8
vpmuludq %ymm13, %ymm2, %ymm15
vmovdqu 544(%rsp), %ymm9
vpmuludq %ymm13, %ymm3, %ymm10
vpmuludq %ymm13, %ymm4, %ymm13
vpaddq %ymm14, %ymm5, %ymm5
vmovdqu 32(%rsi), %ymm14
vpaddq %ymm15, %ymm6, %ymm6
vpaddq %ymm10, %ymm7, %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpmuludq %ymm9, %ymm0, %ymm15
vperm2i128 $32, %ymm14, %ymm8, %ymm7
vpmuludq %ymm9, %ymm1, %ymm13
vperm2i128 $49, %ymm14, %ymm8, %ymm8
vpmuludq %ymm9, %ymm2, %ymm14
vpaddq %ymm15, %ymm10, %ymm9
vmovdqu 256(%rsp), %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm14, %ymm12, %ymm12
vpmuludq %ymm10, %ymm2, %ymm2
vpmuludq %ymm10, %ymm3, %ymm13
vmovdqu 576(%rsp), %ymm14
vpmuludq %ymm10, %ymm4, %ymm10
vpsrldq $6, %ymm7, %ymm15
vpaddq %ymm2, %ymm5, %ymm2
vpsrldq $6, %ymm8, %ymm5
vpaddq %ymm13, %ymm6, %ymm6
vpaddq %ymm9, %ymm10, %ymm9
vmovdqu 224(%rsp), %ymm10
vpmuludq %ymm14, %ymm0, %ymm13
vpmuludq %ymm14, %ymm1, %ymm1
vpunpckhqdq %ymm8, %ymm7, %ymm14
vpunpcklqdq %ymm8, %ymm7, %ymm7
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm1, %ymm12, %ymm1
vpmuludq %ymm10, %ymm3, %ymm3
vpmuludq %ymm10, %ymm4, %ymm8
vpaddq %ymm3, %ymm2, %ymm2
vpaddq %ymm6, %ymm8, %ymm3
vmovdqu (%rsp), %ymm8
vpmuludq 192(%rsp), %ymm4, %ymm4
vpmuludq 608(%rsp), %ymm0, %ymm0
vpunpcklqdq %ymm5, %ymm15, %ymm10
vpsrlq $4, %ymm10, %ymm6
vpaddq %ymm4, %ymm2, %ymm2
vpsrlq $26, %ymm2, %ymm12
vpand %ymm8, %ymm2, %ymm4
vpand %ymm8, %ymm11, %ymm5
vpsrlq $26, %ymm11, %ymm13
vpaddq %ymm0, %ymm1, %ymm1
vpand %ymm8, %ymm6, %ymm2
vpsrlq $26, %ymm7, %ymm11
vpaddq %ymm12, %ymm3, %ymm0
vpaddq %ymm13, %ymm1, %ymm6
vpsrlq $26, %ymm0, %ymm1
vpsrlq $26, %ymm6, %ymm3
vpsllq $2, %ymm3, %ymm12
vpaddq %ymm12, %ymm3, %ymm13
vpand %ymm8, %ymm0, %ymm3
vpand %ymm8, %ymm6, %ymm12
vpaddq %ymm1, %ymm9, %ymm0
vpaddq %ymm13, %ymm4, %ymm1
vpsrlq $26, %ymm0, %ymm4
vpsrlq $26, %ymm1, %ymm9
vpand %ymm8, %ymm0, %ymm6
vpand %ymm8, %ymm1, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vpaddq %ymm9, %ymm3, %ymm1
vpsrlq $26, %ymm4, %ymm5
vpand %ymm8, %ymm4, %ymm3
vpaddq %ymm5, %ymm12, %ymm4
addq $64, %rsi
vpand %ymm8, %ymm7, %ymm5
vpsrlq $30, %ymm10, %ymm7
vpand %ymm8, %ymm7, %ymm9
vpsrlq $40, %ymm14, %ymm7
vpor 32(%rsp), %ymm7, %ymm10
vpand %ymm8, %ymm11, %ymm11
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$6:
cmpq $128, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$7
addq $-64, %r14
vmovdqu 320(%rsp), %ymm7
vmovdqu 352(%rsp), %ymm8
vmovdqu 160(%rsp), %ymm12
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpaddq %ymm2, %ymm6, %ymm2
vpaddq %ymm9, %ymm3, %ymm3
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm0, %ymm5
vpmuludq %ymm7, %ymm1, %ymm6
vpmuludq %ymm7, %ymm2, %ymm9
vpmuludq %ymm7, %ymm3, %ymm10
vpmuludq %ymm7, %ymm4, %ymm7
vpmuludq %ymm8, %ymm0, %ymm11
vpmuludq %ymm8, %ymm1, %ymm13
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm8, %ymm3, %ymm8
vmovdqu 384(%rsp), %ymm15
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm9
vpaddq %ymm14, %ymm10, %ymm10
vpaddq %ymm8, %ymm7, %ymm7
vpmuludq %ymm12, %ymm1, %ymm8
vpmuludq %ymm12, %ymm2, %ymm11
vpmuludq %ymm12, %ymm3, %ymm13
vpmuludq %ymm12, %ymm4, %ymm12
vmovdqu 128(%rsp), %ymm14
vpaddq %ymm8, %ymm5, %ymm5
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm8
vpaddq %ymm12, %ymm10, %ymm10
vpmuludq %ymm15, %ymm0, %ymm13
vpmuludq %ymm15, %ymm1, %ymm11
vpmuludq %ymm15, %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm9
vpaddq %ymm13, %ymm8, %ymm8
vpaddq %ymm11, %ymm10, %ymm10
vpaddq %ymm12, %ymm7, %ymm7
vpmuludq %ymm14, %ymm2, %ymm2
vpmuludq %ymm14, %ymm3, %ymm12
vpmuludq %ymm14, %ymm4, %ymm13
vmovdqu 96(%rsp), %ymm11
vpaddq %ymm2, %ymm5, %ymm5
vpaddq %ymm12, %ymm6, %ymm6
vpaddq %ymm8, %ymm13, %ymm2
vpmuludq %ymm9, %ymm0, %ymm8
vpmuludq %ymm9, %ymm1, %ymm9
vpaddq %ymm8, %ymm10, %ymm1
vpaddq %ymm9, %ymm7, %ymm7
vpmuludq %ymm11, %ymm3, %ymm3
vpmuludq %ymm11, %ymm4, %ymm8
vpaddq %ymm3, %ymm5, %ymm5
vpaddq %ymm6, %ymm8, %ymm3
vpmuludq 64(%rsp), %ymm4, %ymm4
vpmuludq 448(%rsp), %ymm0, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vmovdqu %ymm1, %ymm5
vpaddq %ymm0, %ymm7, %ymm6
vmovdqu (%rsp), %ymm0
vpsrlq $26, %ymm4, %ymm7
vpsrlq $26, %ymm5, %ymm8
vpand %ymm0, %ymm4, %ymm1
vpand %ymm0, %ymm5, %ymm4
vpaddq %ymm7, %ymm3, %ymm3
vpaddq %ymm8, %ymm6, %ymm5
vpsrlq $26, %ymm3, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpsllq $2, %ymm7, %ymm8
vpaddq %ymm8, %ymm7, %ymm7
vpand %ymm0, %ymm3, %ymm8
vpand %ymm0, %ymm5, %ymm3
vpaddq %ymm6, %ymm2, %ymm2
vpaddq %ymm7, %ymm1, %ymm5
vpsrlq $26, %ymm2, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpand %ymm0, %ymm2, %ymm1
vpand %ymm0, %ymm5, %ymm2
vpaddq %ymm6, %ymm4, %ymm4
vpaddq %ymm7, %ymm8, %ymm5
vpsrlq $26, %ymm4, %ymm6
vpand %ymm0, %ymm4, %ymm0
vpaddq %ymm6, %ymm3, %ymm3
vpsllq $26, %ymm5, %ymm4
vpaddq %ymm2, %ymm4, %ymm2
vpsllq $26, %ymm0, %ymm0
vpaddq %ymm1, %ymm0, %ymm0
vpsrldq $8, %ymm3, %ymm1
vpaddq %ymm3, %ymm1, %ymm1
vpermq $-128, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vpaddq %ymm0, %ymm3, %ymm0
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpaddq %ymm0, %ymm2, %ymm0
vextracti128 $1, %ymm0, %xmm1
vpextrq $0, %xmm0, %rax
vpextrq $0, %xmm1, %r9
vpextrq $1, %xmm1, %rcx
movq %r9, %rbx
shlq $52, %rbx
shrq $12, %r9
movq %rcx, %r8
shrq $24, %r8
shlq $40, %rcx
addq %rax, %rbx
adcq %rcx, %r9
adcq $0, %r8
movq %r8, %rax
movq %r8, %rcx
andq $3, %r8
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %rbx
adcq $0, %r9
adcq $0, %r8
jmp Ljade_onetimeauth_poly1305_amd64_avx2_verify$4
Ljade_onetimeauth_poly1305_amd64_avx2_verify$5:
addq (%rsi), %rbx
adcq 8(%rsi), %r9
adcq $1, %r8
movq %r12, %r10
imulq %r8, %r10
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r11
movq %rbp, %rax
mulq %r9
addq %rax, %r11
adcq %rdx, %r8
movq %r12, %rax
mulq %r9
movq %rdx, %r9
addq %r10, %r9
movq %rax, %r10
movq %r13, %rax
mulq %rbx
addq %r10, %rcx
adcq %rax, %r11
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r11, %r9
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2_verify$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2_verify$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2_verify$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbx
adcq %rax, %r9
adcq $0, %r8
movq %r12, %rsi
imulq %r8, %rsi
imulq %rbp, %r8
movq %rbp, %rax
mulq %rbx
movq %rax, %rcx
movq %rdx, %r10
movq %rbp, %rax
mulq %r9
addq %rax, %r10
adcq %rdx, %r8
movq %r12, %rax
mulq %r9
movq %rdx, %r9
addq %rsi, %r9
movq %rax, %rsi
movq %r13, %rax
mulq %rbx
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbx
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbx
addq %rax, %rbx
andq $3, %r8
addq %rcx, %rbx
adcq %r10, %r9
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2_verify$3:
movq %rbx, %rax
movq %r9, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbx, %rax
xorq %r9, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbx, %rax
xorq %r9, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx2_verify$2:
movq %rax, %rdx
xorq (%rdi), %rdx
xorq 8(%rdi), %rcx
orq %rcx, %rdx
xorq %rax, %rax
subq $1, %rdx
adcq $0, %rax
addq $-1, %rax
movq 640(%rsp), %rbx
movq 648(%rsp), %rbp
movq 656(%rsp), %r12
movq 664(%rsp), %r13
movq 672(%rsp), %r14
movq 680(%rsp), %r15
movq 688(%rsp), %rsp
ret
_jade_onetimeauth_poly1305_amd64_avx2:
jade_onetimeauth_poly1305_amd64_avx2:
movq %rsp, %rax
leaq -696(%rsp), %rsp
andq $-32, %rsp
movq %rax, 688(%rsp)
movq %rbx, 640(%rsp)
movq %rbp, 648(%rsp)
movq %r12, 656(%rsp)
movq %r13, 664(%rsp)
movq %r14, 672(%rsp)
movq %r15, 680(%rsp)
movq %rdx, %r14
movq %rcx, %r15
cmpq $256, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$1
movq $0, %rbp
movq $0, %r12
movq $0, %r8
movq (%r15), %r9
movq 8(%r15), %r13
movq $1152921487695413247, %rax
andq %rax, %r9
movq $1152921487695413244, %rax
andq %rax, %r13
movq %r13, %rbx
shrq $2, %rbx
addq %r13, %rbx
addq $16, %r15
jmp Ljade_onetimeauth_poly1305_amd64_avx2$9
Ljade_onetimeauth_poly1305_amd64_avx2$10:
addq (%rsi), %rbp
adcq 8(%rsi), %r12
adcq $1, %r8
movq %rbx, %r11
imulq %r8, %r11
imulq %r9, %r8
movq %r9, %rax
mulq %rbp
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %rbx, %rax
mulq %r12
movq %rdx, %r12
addq %r11, %r12
movq %rax, %r11
movq %r13, %rax
mulq %rbp
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbp
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbp
addq %rax, %rbp
andq $3, %r8
addq %rcx, %rbp
adcq %r10, %r12
adcq $0, %r8
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$9:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$10
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2$8
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %rbp
adcq %rax, %r12
adcq $0, %r8
movq %rbx, %rsi
imulq %r8, %rsi
imulq %r9, %r8
movq %r9, %rax
mulq %rbp
movq %rax, %rcx
movq %rdx, %r10
movq %r9, %rax
mulq %r12
addq %rax, %r10
adcq %rdx, %r8
movq %rbx, %rax
mulq %r12
movq %rdx, %r12
addq %rsi, %r12
movq %rax, %rsi
movq %r13, %rax
mulq %rbp
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %r8
movq $-4, %rbp
movq %r8, %rax
shrq $2, %rax
andq %r8, %rbp
addq %rax, %rbp
andq $3, %r8
addq %rcx, %rbp
adcq %r10, %r12
adcq $0, %r8
Ljade_onetimeauth_poly1305_amd64_avx2$8:
movq %rbp, %rax
movq %r12, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %r8
shrq $2, %r8
negq %r8
xorq %rbp, %rax
xorq %r12, %rcx
andq %r8, %rax
andq %r8, %rcx
xorq %rbp, %rax
xorq %r12, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
jmp Ljade_onetimeauth_poly1305_amd64_avx2$2
Ljade_onetimeauth_poly1305_amd64_avx2$1:
movq (%r15), %r13
movq 8(%r15), %r12
movq $1152921487695413247, %rax
andq %rax, %r13
movq $1152921487695413244, %rax
andq %rax, %r12
movq %r12, %rbp
shrq $2, %rbp
addq %r12, %rbp
addq $16, %r15
movq %r13, %r8
movq %r12, %r11
movq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 344(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 376(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 408(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 440(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 472(%rsp)
movq %rbp, %r10
imulq %rbx, %r10
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %r13, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 336(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 368(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 400(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 432(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 464(%rsp)
movq %rbp, %r10
imulq %rbx, %r10
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r9
movq %r13, %rax
mulq %r11
addq %rax, %r9
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r10, %r11
movq %rax, %r10
movq %r12, %rax
mulq %r8
addq %r10, %rcx
adcq %rax, %r9
adcq %rdx, %rbx
movq $-4, %r8
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r8
addq %rax, %r8
andq $3, %rbx
addq %rcx, %r8
adcq %r9, %r11
adcq $0, %rbx
movq %r8, %rax
andq $67108863, %rax
movq %rax, 328(%rsp)
movq %r8, %rax
shrq $26, %rax
andq $67108863, %rax
movq %rax, 360(%rsp)
movq %r8, %rax
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 392(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 424(%rsp)
movq %r11, %rax
shrdq $40, %rbx, %rax
movq %rax, 456(%rsp)
movq %rbp, %r9
imulq %rbx, %r9
imulq %r13, %rbx
movq %r13, %rax
mulq %r8
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r11
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r11
movq %rdx, %r11
addq %r9, %r11
movq %rax, %r9
movq %r12, %rax
mulq %r8
addq %r9, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %rax
movq %rbx, %rdx
shrq $2, %rdx
andq %rbx, %rax
addq %rdx, %rax
andq $3, %rbx
addq %rcx, %rax
adcq %r10, %r11
adcq $0, %rbx
movq %rax, %rcx
andq $67108863, %rcx
movq %rcx, 320(%rsp)
movq %rax, %rcx
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 352(%rsp)
shrdq $52, %r11, %rax
movq %rax, %rcx
andq $67108863, %rax
movq %rax, 384(%rsp)
shrq $26, %rcx
andq $67108863, %rcx
movq %rcx, 416(%rsp)
shrdq $40, %rbx, %r11
movq %r11, 448(%rsp)
vpbroadcastq glob_data + 16(%rip), %ymm0
vpmuludq 352(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 64(%rsp)
vpmuludq 384(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 96(%rsp)
vpmuludq 416(%rsp), %ymm0, %ymm1
vmovdqu %ymm1, 128(%rsp)
vpmuludq 448(%rsp), %ymm0, %ymm0
vmovdqu %ymm0, 160(%rsp)
vpbroadcastq 320(%rsp), %ymm0
vmovdqu %ymm0, 480(%rsp)
vpbroadcastq 352(%rsp), %ymm0
vmovdqu %ymm0, 512(%rsp)
vpbroadcastq 384(%rsp), %ymm0
vmovdqu %ymm0, 544(%rsp)
vpbroadcastq 416(%rsp), %ymm0
vmovdqu %ymm0, 576(%rsp)
vpbroadcastq 448(%rsp), %ymm0
vmovdqu %ymm0, 608(%rsp)
vpbroadcastq 64(%rsp), %ymm0
vmovdqu %ymm0, 192(%rsp)
vpbroadcastq 96(%rsp), %ymm0
vmovdqu %ymm0, 224(%rsp)
vpbroadcastq 128(%rsp), %ymm0
vmovdqu %ymm0, 256(%rsp)
vpbroadcastq 160(%rsp), %ymm0
vmovdqu %ymm0, 288(%rsp)
vpxor %ymm0, %ymm0, %ymm0
vpxor %ymm1, %ymm1, %ymm1
vpxor %ymm6, %ymm6, %ymm6
vpxor %ymm3, %ymm3, %ymm3
vpxor %ymm4, %ymm4, %ymm4
vpbroadcastq glob_data + 8(%rip), %ymm7
vmovdqu %ymm7, (%rsp)
vpbroadcastq glob_data + 0(%rip), %ymm2
vmovdqu %ymm2, 32(%rsp)
vmovdqu (%rsi), %ymm2
vmovdqu 32(%rsi), %ymm5
addq $64, %rsi
vperm2i128 $32, %ymm5, %ymm2, %ymm9
vperm2i128 $49, %ymm5, %ymm2, %ymm2
vpsrldq $6, %ymm9, %ymm5
vpsrldq $6, %ymm2, %ymm10
vpunpckhqdq %ymm2, %ymm9, %ymm8
vpunpcklqdq %ymm2, %ymm9, %ymm9
vpunpcklqdq %ymm10, %ymm5, %ymm10
vpsrlq $4, %ymm10, %ymm2
vpand %ymm7, %ymm2, %ymm2
vpsrlq $26, %ymm9, %ymm11
vpand %ymm7, %ymm9, %ymm5
vpsrlq $30, %ymm10, %ymm9
vpand %ymm7, %ymm9, %ymm9
vpsrlq $40, %ymm8, %ymm8
vpor 32(%rsp), %ymm8, %ymm10
vpand %ymm7, %ymm11, %ymm11
jmp Ljade_onetimeauth_poly1305_amd64_avx2$6
Ljade_onetimeauth_poly1305_amd64_avx2$7:
vmovdqu 480(%rsp), %ymm8
vmovdqu 512(%rsp), %ymm7
vmovdqu 288(%rsp), %ymm13
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpmuludq %ymm8, %ymm0, %ymm5
vpaddq %ymm2, %ymm6, %ymm2
vpmuludq %ymm7, %ymm0, %ymm6
vpaddq %ymm9, %ymm3, %ymm3
vpmuludq %ymm8, %ymm1, %ymm9
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm1, %ymm12
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm7, %ymm2, %ymm10
vpmuludq %ymm8, %ymm3, %ymm11
vpaddq %ymm6, %ymm9, %ymm6
vpmuludq %ymm7, %ymm3, %ymm9
vpaddq %ymm12, %ymm14, %ymm7
vpmuludq %ymm8, %ymm4, %ymm8
vpaddq %ymm10, %ymm11, %ymm11
vpaddq %ymm9, %ymm8, %ymm12
vpmuludq %ymm13, %ymm1, %ymm14
vmovdqu (%rsi), %ymm8
vpmuludq %ymm13, %ymm2, %ymm15
vmovdqu 544(%rsp), %ymm9
vpmuludq %ymm13, %ymm3, %ymm10
vpmuludq %ymm13, %ymm4, %ymm13
vpaddq %ymm14, %ymm5, %ymm5
vmovdqu 32(%rsi), %ymm14
vpaddq %ymm15, %ymm6, %ymm6
vpaddq %ymm10, %ymm7, %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpmuludq %ymm9, %ymm0, %ymm15
vperm2i128 $32, %ymm14, %ymm8, %ymm7
vpmuludq %ymm9, %ymm1, %ymm13
vperm2i128 $49, %ymm14, %ymm8, %ymm8
vpmuludq %ymm9, %ymm2, %ymm14
vpaddq %ymm15, %ymm10, %ymm9
vmovdqu 256(%rsp), %ymm10
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm14, %ymm12, %ymm12
vpmuludq %ymm10, %ymm2, %ymm2
vpmuludq %ymm10, %ymm3, %ymm13
vmovdqu 576(%rsp), %ymm14
vpmuludq %ymm10, %ymm4, %ymm10
vpsrldq $6, %ymm7, %ymm15
vpaddq %ymm2, %ymm5, %ymm2
vpsrldq $6, %ymm8, %ymm5
vpaddq %ymm13, %ymm6, %ymm6
vpaddq %ymm9, %ymm10, %ymm9
vmovdqu 224(%rsp), %ymm10
vpmuludq %ymm14, %ymm0, %ymm13
vpmuludq %ymm14, %ymm1, %ymm1
vpunpckhqdq %ymm8, %ymm7, %ymm14
vpunpcklqdq %ymm8, %ymm7, %ymm7
vpaddq %ymm13, %ymm11, %ymm11
vpaddq %ymm1, %ymm12, %ymm1
vpmuludq %ymm10, %ymm3, %ymm3
vpmuludq %ymm10, %ymm4, %ymm8
vpaddq %ymm3, %ymm2, %ymm2
vpaddq %ymm6, %ymm8, %ymm3
vmovdqu (%rsp), %ymm8
vpmuludq 192(%rsp), %ymm4, %ymm4
vpmuludq 608(%rsp), %ymm0, %ymm0
vpunpcklqdq %ymm5, %ymm15, %ymm10
vpsrlq $4, %ymm10, %ymm6
vpaddq %ymm4, %ymm2, %ymm2
vpsrlq $26, %ymm2, %ymm12
vpand %ymm8, %ymm2, %ymm4
vpand %ymm8, %ymm11, %ymm5
vpsrlq $26, %ymm11, %ymm13
vpaddq %ymm0, %ymm1, %ymm1
vpand %ymm8, %ymm6, %ymm2
vpsrlq $26, %ymm7, %ymm11
vpaddq %ymm12, %ymm3, %ymm0
vpaddq %ymm13, %ymm1, %ymm6
vpsrlq $26, %ymm0, %ymm1
vpsrlq $26, %ymm6, %ymm3
vpsllq $2, %ymm3, %ymm12
vpaddq %ymm12, %ymm3, %ymm13
vpand %ymm8, %ymm0, %ymm3
vpand %ymm8, %ymm6, %ymm12
vpaddq %ymm1, %ymm9, %ymm0
vpaddq %ymm13, %ymm4, %ymm1
vpsrlq $26, %ymm0, %ymm4
vpsrlq $26, %ymm1, %ymm9
vpand %ymm8, %ymm0, %ymm6
vpand %ymm8, %ymm1, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vpaddq %ymm9, %ymm3, %ymm1
vpsrlq $26, %ymm4, %ymm5
vpand %ymm8, %ymm4, %ymm3
vpaddq %ymm5, %ymm12, %ymm4
addq $64, %rsi
vpand %ymm8, %ymm7, %ymm5
vpsrlq $30, %ymm10, %ymm7
vpand %ymm8, %ymm7, %ymm9
vpsrlq $40, %ymm14, %ymm7
vpor 32(%rsp), %ymm7, %ymm10
vpand %ymm8, %ymm11, %ymm11
addq $-64, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$6:
cmpq $128, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$7
addq $-64, %r14
vmovdqu 320(%rsp), %ymm7
vmovdqu 352(%rsp), %ymm8
vmovdqu 160(%rsp), %ymm12
vpaddq %ymm5, %ymm0, %ymm0
vpaddq %ymm11, %ymm1, %ymm1
vpaddq %ymm2, %ymm6, %ymm2
vpaddq %ymm9, %ymm3, %ymm3
vpaddq %ymm10, %ymm4, %ymm4
vpmuludq %ymm7, %ymm0, %ymm5
vpmuludq %ymm7, %ymm1, %ymm6
vpmuludq %ymm7, %ymm2, %ymm9
vpmuludq %ymm7, %ymm3, %ymm10
vpmuludq %ymm7, %ymm4, %ymm7
vpmuludq %ymm8, %ymm0, %ymm11
vpmuludq %ymm8, %ymm1, %ymm13
vpmuludq %ymm8, %ymm2, %ymm14
vpmuludq %ymm8, %ymm3, %ymm8
vmovdqu 384(%rsp), %ymm15
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm9
vpaddq %ymm14, %ymm10, %ymm10
vpaddq %ymm8, %ymm7, %ymm7
vpmuludq %ymm12, %ymm1, %ymm8
vpmuludq %ymm12, %ymm2, %ymm11
vpmuludq %ymm12, %ymm3, %ymm13
vpmuludq %ymm12, %ymm4, %ymm12
vmovdqu 128(%rsp), %ymm14
vpaddq %ymm8, %ymm5, %ymm5
vpaddq %ymm11, %ymm6, %ymm6
vpaddq %ymm13, %ymm9, %ymm8
vpaddq %ymm12, %ymm10, %ymm10
vpmuludq %ymm15, %ymm0, %ymm13
vpmuludq %ymm15, %ymm1, %ymm11
vpmuludq %ymm15, %ymm2, %ymm12
vmovdqu 416(%rsp), %ymm9
vpaddq %ymm13, %ymm8, %ymm8
vpaddq %ymm11, %ymm10, %ymm10
vpaddq %ymm12, %ymm7, %ymm7
vpmuludq %ymm14, %ymm2, %ymm2
vpmuludq %ymm14, %ymm3, %ymm12
vpmuludq %ymm14, %ymm4, %ymm13
vmovdqu 96(%rsp), %ymm11
vpaddq %ymm2, %ymm5, %ymm5
vpaddq %ymm12, %ymm6, %ymm6
vpaddq %ymm8, %ymm13, %ymm2
vpmuludq %ymm9, %ymm0, %ymm8
vpmuludq %ymm9, %ymm1, %ymm9
vpaddq %ymm8, %ymm10, %ymm1
vpaddq %ymm9, %ymm7, %ymm7
vpmuludq %ymm11, %ymm3, %ymm3
vpmuludq %ymm11, %ymm4, %ymm8
vpaddq %ymm3, %ymm5, %ymm5
vpaddq %ymm6, %ymm8, %ymm3
vpmuludq 64(%rsp), %ymm4, %ymm4
vpmuludq 448(%rsp), %ymm0, %ymm0
vpaddq %ymm4, %ymm5, %ymm4
vmovdqu %ymm1, %ymm5
vpaddq %ymm0, %ymm7, %ymm6
vmovdqu (%rsp), %ymm0
vpsrlq $26, %ymm4, %ymm7
vpsrlq $26, %ymm5, %ymm8
vpand %ymm0, %ymm4, %ymm1
vpand %ymm0, %ymm5, %ymm4
vpaddq %ymm7, %ymm3, %ymm3
vpaddq %ymm8, %ymm6, %ymm5
vpsrlq $26, %ymm3, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpsllq $2, %ymm7, %ymm8
vpaddq %ymm8, %ymm7, %ymm7
vpand %ymm0, %ymm3, %ymm8
vpand %ymm0, %ymm5, %ymm3
vpaddq %ymm6, %ymm2, %ymm2
vpaddq %ymm7, %ymm1, %ymm5
vpsrlq $26, %ymm2, %ymm6
vpsrlq $26, %ymm5, %ymm7
vpand %ymm0, %ymm2, %ymm1
vpand %ymm0, %ymm5, %ymm2
vpaddq %ymm6, %ymm4, %ymm4
vpaddq %ymm7, %ymm8, %ymm5
vpsrlq $26, %ymm4, %ymm6
vpand %ymm0, %ymm4, %ymm0
vpaddq %ymm6, %ymm3, %ymm3
vpsllq $26, %ymm5, %ymm4
vpaddq %ymm2, %ymm4, %ymm2
vpsllq $26, %ymm0, %ymm0
vpaddq %ymm1, %ymm0, %ymm0
vpsrldq $8, %ymm3, %ymm1
vpaddq %ymm3, %ymm1, %ymm1
vpermq $-128, %ymm1, %ymm1
vperm2i128 $32, %ymm0, %ymm2, %ymm3
vperm2i128 $49, %ymm0, %ymm2, %ymm0
vpaddq %ymm0, %ymm3, %ymm0
vpunpcklqdq %ymm1, %ymm0, %ymm2
vpunpckhqdq %ymm1, %ymm0, %ymm0
vpaddq %ymm0, %ymm2, %ymm0
vextracti128 $1, %ymm0, %xmm1
vpextrq $0, %xmm0, %rax
vpextrq $0, %xmm1, %r8
vpextrq $1, %xmm1, %rcx
movq %r8, %r9
shlq $52, %r9
shrq $12, %r8
movq %rcx, %rbx
shrq $24, %rbx
shlq $40, %rcx
addq %rax, %r9
adcq %rcx, %r8
adcq $0, %rbx
movq %rbx, %rax
movq %rbx, %rcx
andq $3, %rbx
shrq $2, %rax
andq $-4, %rcx
addq %rcx, %rax
addq %rax, %r9
adcq $0, %r8
adcq $0, %rbx
jmp Ljade_onetimeauth_poly1305_amd64_avx2$4
Ljade_onetimeauth_poly1305_amd64_avx2$5:
addq (%rsi), %r9
adcq 8(%rsi), %r8
adcq $1, %rbx
movq %rbp, %r11
imulq %rbx, %r11
imulq %r13, %rbx
movq %r13, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %r11, %r8
movq %rax, %r11
movq %r12, %rax
mulq %r9
addq %r11, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
addq $16, %rsi
addq $-16, %r14
Ljade_onetimeauth_poly1305_amd64_avx2$4:
cmpq $16, %r14
jnb Ljade_onetimeauth_poly1305_amd64_avx2$5
cmpq $0, %r14
jbe Ljade_onetimeauth_poly1305_amd64_avx2$3
xorq %rcx, %rcx
movq %r14, %rax
andq $7, %rax
shlq $3, %rax
shrq $3, %r14
movq %r14, %rdx
xorq $1, %rdx
movq %r14, %r10
addq $-1, %r10
movq %rax, %r11
andq %r10, %r11
xorq %r11, %rcx
xorq %r11, %rax
shlq %cl, %rdx
movq %rax, %rcx
shlq %cl, %r14
movq %rdx, %rax
movq %r14, %rcx
subq $1, %rax
sbbq $0, %rcx
movq (%rsi), %r10
andq %rax, %r10
orq %rdx, %r10
movq 8(%rsi), %rax
andq %rcx, %rax
orq %r14, %rax
addq %r10, %r9
adcq %rax, %r8
adcq $0, %rbx
movq %rbp, %rsi
imulq %rbx, %rsi
imulq %r13, %rbx
movq %r13, %rax
mulq %r9
movq %rax, %rcx
movq %rdx, %r10
movq %r13, %rax
mulq %r8
addq %rax, %r10
adcq %rdx, %rbx
movq %rbp, %rax
mulq %r8
movq %rdx, %r8
addq %rsi, %r8
movq %rax, %rsi
movq %r12, %rax
mulq %r9
addq %rsi, %rcx
adcq %rax, %r10
adcq %rdx, %rbx
movq $-4, %r9
movq %rbx, %rax
shrq $2, %rax
andq %rbx, %r9
addq %rax, %r9
andq $3, %rbx
addq %rcx, %r9
adcq %r10, %r8
adcq $0, %rbx
Ljade_onetimeauth_poly1305_amd64_avx2$3:
movq %r9, %rax
movq %r8, %rcx
addq $5, %rax
adcq $0, %rcx
adcq $0, %rbx
shrq $2, %rbx
negq %rbx
xorq %r9, %rax
xorq %r8, %rcx
andq %rbx, %rax
andq %rbx, %rcx
xorq %r9, %rax
xorq %r8, %rcx
movq (%r15), %rdx
movq 8(%r15), %rsi
addq %rdx, %rax
adcq %rsi, %rcx
Ljade_onetimeauth_poly1305_amd64_avx2$2:
movq %rax, (%rdi)
movq %rcx, 8(%rdi)
xorq %rax, %rax
movq 640(%rsp), %rbx
movq 648(%rsp), %rbp
movq 656(%rsp), %r12
movq 664(%rsp), %r13
movq 672(%rsp), %r14
movq 680(%rsp), %r15
movq 688(%rsp), %rsp
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte -1
.byte -1
.byte -1
.byte 3
.byte 0
.byte 0
.byte 0
.byte 0
.byte 5
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
|
verdict-x509/verdict
| 31,350
|
deps/libcrux/sys/libjade/jazz/sha3_384_ref.s
|
.att_syntax
.text
.p2align 5
.globl _jade_hash_sha3_384_amd64_ref
.globl jade_hash_sha3_384_amd64_ref
_jade_hash_sha3_384_amd64_ref:
jade_hash_sha3_384_amd64_ref:
movq %rsp, %rax
leaq -48(%rsp), %rsp
andq $-8, %rsp
movq %rax, 40(%rsp)
movq %rbx, (%rsp)
movq %rbp, 8(%rsp)
movq %r12, 16(%rsp)
movq %r13, 24(%rsp)
movq %r14, 32(%rsp)
movq $48, %rcx
movb $6, %r8b
movq $104, %rax
leaq -448(%rsp), %rsp
call L_keccak1600_ref$1
Ljade_hash_sha3_384_amd64_ref$1:
leaq 448(%rsp), %rsp
xorq %rax, %rax
movq (%rsp), %rbx
movq 8(%rsp), %rbp
movq 16(%rsp), %r12
movq 24(%rsp), %r13
movq 32(%rsp), %r14
movq 40(%rsp), %rsp
ret
L_keccak1600_ref$1:
movq %rdi, 8(%rsp)
movq %rcx, 16(%rsp)
movb %r8b, 448(%rsp)
xorq %rcx, %rcx
movq %rcx, 48(%rsp)
movq %rcx, 56(%rsp)
movq %rcx, 64(%rsp)
movq %rcx, 72(%rsp)
movq %rcx, 80(%rsp)
movq %rcx, 88(%rsp)
movq %rcx, 96(%rsp)
movq %rcx, 104(%rsp)
movq %rcx, 112(%rsp)
movq %rcx, 120(%rsp)
movq %rcx, 128(%rsp)
movq %rcx, 136(%rsp)
movq %rcx, 144(%rsp)
movq %rcx, 152(%rsp)
movq %rcx, 160(%rsp)
movq %rcx, 168(%rsp)
movq %rcx, 176(%rsp)
movq %rcx, 184(%rsp)
movq %rcx, 192(%rsp)
movq %rcx, 200(%rsp)
movq %rcx, 208(%rsp)
movq %rcx, 216(%rsp)
movq %rcx, 224(%rsp)
movq %rcx, 232(%rsp)
movq %rcx, 240(%rsp)
jmp L_keccak1600_ref$16
L_keccak1600_ref$17:
movq %rax, %rcx
shrq $3, %rcx
movq $0, %rdi
jmp L_keccak1600_ref$19
L_keccak1600_ref$20:
movq (%rsi,%rdi,8), %r8
xorq %r8, 48(%rsp,%rdi,8)
incq %rdi
L_keccak1600_ref$19:
cmpq %rcx, %rdi
jb L_keccak1600_ref$20
addq %rax, %rsi
subq %rax, %rdx
movq %rsi, 24(%rsp)
movq %rdx, 32(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$18:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$18
movq 24(%rsp), %rsi
movq 32(%rsp), %rdx
movq 40(%rsp), %rax
L_keccak1600_ref$16:
cmpq %rax, %rdx
jnb L_keccak1600_ref$17
movb 448(%rsp), %cl
movq %rdx, %rdi
shrq $3, %rdi
movq $0, %r8
jmp L_keccak1600_ref$14
L_keccak1600_ref$15:
movq (%rsi,%r8,8), %r9
xorq %r9, 48(%rsp,%r8,8)
incq %r8
L_keccak1600_ref$14:
cmpq %rdi, %r8
jb L_keccak1600_ref$15
shlq $3, %r8
jmp L_keccak1600_ref$12
L_keccak1600_ref$13:
movb (%rsi,%r8), %dil
xorb %dil, 48(%rsp,%r8)
incq %r8
L_keccak1600_ref$12:
cmpq %rdx, %r8
jb L_keccak1600_ref$13
xorb %cl, 48(%rsp,%r8)
movq %rax, %rcx
addq $-1, %rcx
xorb $-128, 48(%rsp,%rcx)
movq 16(%rsp), %rdx
jmp L_keccak1600_ref$7
L_keccak1600_ref$8:
movq %rdx, 16(%rsp)
movq %rax, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$11:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$11
movq 8(%rsp), %rcx
movq 16(%rsp), %rdx
movq 40(%rsp), %rax
movq %rax, %rsi
shrq $3, %rsi
movq $0, %rdi
jmp L_keccak1600_ref$9
L_keccak1600_ref$10:
movq 48(%rsp,%rdi,8), %r8
movq %r8, (%rcx,%rdi,8)
incq %rdi
L_keccak1600_ref$9:
cmpq %rsi, %rdi
jb L_keccak1600_ref$10
addq %rax, %rcx
subq %rax, %rdx
movq %rcx, 8(%rsp)
L_keccak1600_ref$7:
cmpq %rax, %rdx
jnbe L_keccak1600_ref$8
movq %rdx, 40(%rsp)
leaq glob_data + 0(%rip), %rax
movq $0, %rcx
L_keccak1600_ref$6:
movq (%rax,%rcx,8), %r10
movq 48(%rsp), %r9
movq 56(%rsp), %r8
movq 64(%rsp), %r11
movq 72(%rsp), %rbx
movq 80(%rsp), %rbp
xorq 88(%rsp), %r9
xorq 96(%rsp), %r8
xorq 104(%rsp), %r11
xorq 112(%rsp), %rbx
xorq 120(%rsp), %rbp
xorq 128(%rsp), %r9
xorq 136(%rsp), %r8
xorq 144(%rsp), %r11
xorq 152(%rsp), %rbx
xorq 160(%rsp), %rbp
xorq 168(%rsp), %r9
xorq 176(%rsp), %r8
xorq 184(%rsp), %r11
xorq 192(%rsp), %rbx
xorq 200(%rsp), %rbp
xorq 208(%rsp), %r9
xorq 216(%rsp), %r8
xorq 224(%rsp), %r11
xorq 232(%rsp), %rbx
xorq 240(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 48(%rsp), %r11
xorq %rdx, %r11
movq 96(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 144(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 192(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 240(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 248(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 256(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 264(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 272(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 280(%rsp)
movq 72(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 120(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 128(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 176(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 224(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 288(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 296(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 304(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 312(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 320(%rsp)
movq 56(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 104(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 152(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 200(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 208(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 328(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 336(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 344(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 352(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 360(%rsp)
movq 80(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 88(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 136(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 184(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 232(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 368(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 376(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 384(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 392(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 400(%rsp)
movq 64(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 112(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 160(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 168(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 216(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 408(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 416(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 424(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 432(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 440(%rsp)
movq 8(%rax,%rcx,8), %r10
movq 248(%rsp), %r9
movq 256(%rsp), %r8
movq 264(%rsp), %r11
movq 272(%rsp), %rbx
movq 280(%rsp), %rbp
xorq 288(%rsp), %r9
xorq 296(%rsp), %r8
xorq 304(%rsp), %r11
xorq 312(%rsp), %rbx
xorq 320(%rsp), %rbp
xorq 328(%rsp), %r9
xorq 336(%rsp), %r8
xorq 344(%rsp), %r11
xorq 352(%rsp), %rbx
xorq 360(%rsp), %rbp
xorq 368(%rsp), %r9
xorq 376(%rsp), %r8
xorq 384(%rsp), %r11
xorq 392(%rsp), %rbx
xorq 400(%rsp), %rbp
xorq 408(%rsp), %r9
xorq 416(%rsp), %r8
xorq 424(%rsp), %r11
xorq 432(%rsp), %rbx
xorq 440(%rsp), %rbp
movq %r8, %rdx
rolq $1, %rdx
xorq %rbp, %rdx
movq %r11, %rsi
rolq $1, %rsi
xorq %r9, %rsi
movq %rbx, %rdi
rolq $1, %rdi
xorq %r8, %rdi
movq %rbp, %r8
rolq $1, %r8
xorq %r11, %r8
rolq $1, %r9
xorq %rbx, %r9
movq 248(%rsp), %r11
xorq %rdx, %r11
movq 296(%rsp), %rbx
xorq %rsi, %rbx
rolq $44, %rbx
movq 344(%rsp), %rbp
xorq %rdi, %rbp
rolq $43, %rbp
movq 392(%rsp), %r12
xorq %r8, %r12
rolq $21, %r12
movq 440(%rsp), %r13
xorq %r9, %r13
rolq $14, %r13
movq %rbx, %r14
notq %r14
andq %rbp, %r14
xorq %r11, %r14
xorq %r10, %r14
movq %r14, 48(%rsp)
movq %rbp, %r10
notq %r10
andq %r12, %r10
xorq %rbx, %r10
movq %r10, 56(%rsp)
movq %r12, %r10
notq %r10
andq %r13, %r10
xorq %rbp, %r10
movq %r10, 64(%rsp)
movq %r13, %r10
notq %r10
andq %r11, %r10
xorq %r12, %r10
movq %r10, 72(%rsp)
notq %r11
andq %rbx, %r11
xorq %r13, %r11
movq %r11, 80(%rsp)
movq 272(%rsp), %r10
xorq %r8, %r10
rolq $28, %r10
movq 320(%rsp), %r11
xorq %r9, %r11
rolq $20, %r11
movq 328(%rsp), %r12
xorq %rdx, %r12
rolq $3, %r12
movq 376(%rsp), %rbx
xorq %rsi, %rbx
rolq $45, %rbx
movq 424(%rsp), %rbp
xorq %rdi, %rbp
rolq $61, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 88(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 96(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 104(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 112(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 120(%rsp)
movq 256(%rsp), %r10
xorq %rsi, %r10
rolq $1, %r10
movq 304(%rsp), %r11
xorq %rdi, %r11
rolq $6, %r11
movq 352(%rsp), %r12
xorq %r8, %r12
rolq $25, %r12
movq 400(%rsp), %rbx
xorq %r9, %rbx
rolq $8, %rbx
movq 408(%rsp), %rbp
xorq %rdx, %rbp
rolq $18, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 128(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 136(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 144(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 152(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 160(%rsp)
movq 280(%rsp), %r10
xorq %r9, %r10
rolq $27, %r10
movq 288(%rsp), %r11
xorq %rdx, %r11
rolq $36, %r11
movq 336(%rsp), %r12
xorq %rsi, %r12
rolq $10, %r12
movq 384(%rsp), %rbx
xorq %rdi, %rbx
rolq $15, %rbx
movq 432(%rsp), %rbp
xorq %r8, %rbp
rolq $56, %rbp
movq %r11, %r13
notq %r13
andq %r12, %r13
xorq %r10, %r13
movq %r13, 168(%rsp)
movq %r12, %r13
notq %r13
andq %rbx, %r13
xorq %r11, %r13
movq %r13, 176(%rsp)
movq %rbx, %r13
notq %r13
andq %rbp, %r13
xorq %r12, %r13
movq %r13, 184(%rsp)
movq %rbp, %r12
notq %r12
andq %r10, %r12
xorq %rbx, %r12
movq %r12, 192(%rsp)
notq %r10
andq %r11, %r10
xorq %rbp, %r10
movq %r10, 200(%rsp)
movq 264(%rsp), %r10
xorq %rdi, %r10
rolq $62, %r10
movq 312(%rsp), %rdi
xorq %r8, %rdi
rolq $55, %rdi
movq 360(%rsp), %r8
xorq %r9, %r8
rolq $39, %r8
movq 368(%rsp), %r9
xorq %rdx, %r9
rolq $41, %r9
movq 416(%rsp), %rdx
xorq %rsi, %rdx
rolq $2, %rdx
movq %rdi, %rsi
notq %rsi
andq %r8, %rsi
xorq %r10, %rsi
movq %rsi, 208(%rsp)
movq %r8, %rsi
notq %rsi
andq %r9, %rsi
xorq %rdi, %rsi
movq %rsi, 216(%rsp)
movq %r9, %rsi
notq %rsi
andq %rdx, %rsi
xorq %r8, %rsi
movq %rsi, 224(%rsp)
movq %rdx, %rsi
notq %rsi
andq %r10, %rsi
xorq %r9, %rsi
movq %rsi, 232(%rsp)
notq %r10
andq %rdi, %r10
xorq %rdx, %r10
movq %r10, 240(%rsp)
addq $2, %rcx
cmpq $23, %rcx
jb L_keccak1600_ref$6
movq 8(%rsp), %rax
movq 40(%rsp), %rcx
movq %rcx, %rdx
shrq $3, %rdx
movq $0, %rsi
jmp L_keccak1600_ref$4
L_keccak1600_ref$5:
movq 48(%rsp,%rsi,8), %rdi
movq %rdi, (%rax,%rsi,8)
incq %rsi
L_keccak1600_ref$4:
cmpq %rdx, %rsi
jb L_keccak1600_ref$5
shlq $3, %rsi
jmp L_keccak1600_ref$2
L_keccak1600_ref$3:
movb 48(%rsp,%rsi), %dl
movb %dl, (%rax,%rsi)
incq %rsi
L_keccak1600_ref$2:
cmpq %rcx, %rsi
jb L_keccak1600_ref$3
ret
.data
.p2align 5
_glob_data:
glob_data:
.byte 1
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -126
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -118
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -117
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte 9
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -118
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -120
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 9
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte -117
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -119
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 3
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 2
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 10
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte 10
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -127
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
.byte -128
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 0
.byte -128
.byte 1
.byte 0
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte 0
.byte 8
.byte -128
.byte 0
.byte -128
.byte 0
.byte 0
.byte 0
.byte -128
|
VIAAN96/Unlock-Vivo-Bootloader-Garbage
| 7,083
|
mtk-client/src/da_xml/common/start.S
|
.syntax unified
.code 32
.global start
.section .text.start
start:
#add r3, pc, #1
#bx r3
.global apmcu_dcache_clean_invalidate
.section .text
.type apmcu_dcache_clean_invalidate,%function
apmcu_dcache_clean_invalidate:
push {r4,r5,r7,r9,r10,r11}
dmb /* ensure ordering with previous memory accesses */
mrc p15, 1, r0, c0, c0, 1 /* read clidr */
ands r3, r0, #0x7000000 /* extract loc from clidr */
mov r3, r3, lsr #23 /* left align loc bit field */
beq ci_finished /* if loc is 0, then no need to clean */
mov r10, #0 /* start clean at cache level 0 */
ci_loop1:
add r2, r10, r10, lsr #1 /* work out 3x current cache level */
mov r1, r0, lsr r2 /* extract cache type bits from clidr */
and r1, r1, #7 /* mask of the bits for current cache only */
cmp r1, #2 /* see what cache we have at this level */
blt ci_skip /* skip if no cache, or just i-cache */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
isb /* isb to sych the new cssr&csidr */
mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */
and r2, r1, #7 /* extract the length of the cache lines */
add r2, r2, #4 /* add 4 (line length offset) */
ldr r4, =0x3ff
ands r4, r4, r1, lsr #3 /* find maximum number on the way size */
clz r5, r4 /* find bit position of way size increment */
ldr r7, =0x7fff
ands r7, r7, r1, lsr #13 /* extract max number of the index size */
ci_loop2:
mov r9, r4 /* create working copy of max way size */
ci_loop3:
orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */
orr r11, r11, r7, lsl r2 /* factor index number into r11 */
mcr p15, 0, r11, c7, c14, 2 /* clean & invalidate by set/way */
subs r9, r9, #1 /* decrement the way */
bge ci_loop3
subs r7, r7, #1 /* decrement the index */
bge ci_loop2
ci_skip:
add r10, r10, #2 /* increment cache number */
cmp r3, r10
bgt ci_loop1
ci_finished:
mov r10, #0 /* swith back to cache level 0 */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
dsb
isb
pop {r4,r5,r7,r9,r10,r11}
bx lr
.global apmcu_dcache_invalidate
.section .text
.type apmcu_dcache_invalidate,%function
apmcu_dcache_invalidate:
push {r4,r5,r7,r9,r10,r11}
dmb /* ensure ordering with previous memory accesses */
mrc p15, 1, r0, c0, c0, 1 /* read clidr */
ands r3, r0, #0x7000000 /* extract loc from clidr */
mov r3, r3, lsr #23 /* left align loc bit field */
beq cii_finished /* if loc is 0, then no need to clean */
mov r10, #0 /* start clean at cache level 0 */
cii_loop1:
add r2, r10, r10, lsr #1 /* work out 3x current cache level */
mov r1, r0, lsr r2 /* extract cache type bits from clidr */
and r1, r1, #7 /* mask of the bits for current cache only */
cmp r1, #2 /* see what cache we have at this level */
blt cii_skip /* skip if no cache, or just i-cache */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
isb /* isb to sych the new cssr&csidr */
mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */
and r2, r1, #7 /* extract the length of the cache lines */
add r2, r2, #4 /* add 4 (line length offset) */
ldr r4, =0x3ff
ands r4, r4, r1, lsr #3 /* find maximum number on the way size */
clz r5, r4 /* find bit position of way size increment */
ldr r7, =0x7fff
ands r7, r7, r1, lsr #13 /* extract max number of the index size */
cii_loop2:
mov r9, r4 /* create working copy of max way size */
cii_loop3:
orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */
orr r11, r11, r7, lsl r2 /* factor index number into r11 */
mcr p15, 0, r11, c7, c6, 2 /* invalidate by set/way */
subs r9, r9, #1 /* decrement the way */
bge cii_loop3
subs r7, r7, #1 /* decrement the index */
bge cii_loop2
cii_skip:
add r10, r10, #2 /* increment cache number */
cmp r3, r10
bgt cii_loop1
cii_finished:
mov r10, #0 /* swith back to cache level 0 */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
dsb
isb
pop {r4,r5,r7,r9,r10,r11}
bx lr
.global cache_init
.section .text
.type cache_init,%function
cache_init:
PUSH {R4-R11,LR}
MOV R7, R0
MRS R12, CPSR
CPSID AIF
TST R7, #2
BEQ mmt
MRC p15, 0, R0,c1,c0, 0
TST R0, #4
BEQ mma
BIC R0, R0, #4
MCR p15, 0, R0,c1,c0, 0
BL apmcu_dcache_clean_invalidate
B mmt
mma:
BL apmcu_dcache_invalidate
mmt:
TST R7, #1
BEQ mml
MRC p15, 0, R0,c1,c0, 0
BIC R0, R0, #0x1000
MCR p15, 0, R0,c1,c0, 0
mml:
MOV R0, #0
MCR p15, 0, R0,c7,c5, 0
MSR CPSR_cf, R12
POP {R4-R11,PC}
.global cache_close
.section .text
.type cache_close,%function
cache_close:
PUSH {R4-R11,LR}
MOV R7, R0
MRS R12, CPSR
CPSID AIF
TST R7, #2
BEQ cci
MRC p15, 0, R0,c1,c0, 0
TST R0, #4
BNE cci
BL apmcu_dcache_invalidate
MRC p15, 0, R0,c1,c0, 0
ORR R0, R0, #4
MCR p15, 0, R0,c1,c0, 0
cci:
TST R7, #1
BEQ cct
MOV R0, #0
MCR p15, 0, R0,c7,c5, 0
MRC p15, 0, R0,c1,c0, 0
ORR R0, R0, #0x1000
MCR p15, 0, R0,c1,c0, 0
cct:
MSR CPSR_cf, R12
POP {R4-R11,PC}
|
VIAAN96/Unlock-Vivo-Bootloader-Garbage
| 7,195
|
mtk-client/src/da_x/common/start.S
|
/* Copyright 2024 (c) B.Kerler */
/* Use of this source code is governed by a GPLv3 license, see LICENSE.txt. */
.syntax unified
.code 32
.global start
.section .text.start
start:
add r3, pc, #1
bx r3
.global apmcu_dcache_clean_invalidate
.section .text
.type apmcu_dcache_clean_invalidate,%function
apmcu_dcache_clean_invalidate:
push {r4,r5,r7,r9,r10,r11}
dmb /* ensure ordering with previous memory accesses */
mrc p15, 1, r0, c0, c0, 1 /* read clidr */
ands r3, r0, #0x7000000 /* extract loc from clidr */
mov r3, r3, lsr #23 /* left align loc bit field */
beq ci_finished /* if loc is 0, then no need to clean */
mov r10, #0 /* start clean at cache level 0 */
ci_loop1:
add r2, r10, r10, lsr #1 /* work out 3x current cache level */
mov r1, r0, lsr r2 /* extract cache type bits from clidr */
and r1, r1, #7 /* mask of the bits for current cache only */
cmp r1, #2 /* see what cache we have at this level */
blt ci_skip /* skip if no cache, or just i-cache */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
isb /* isb to sych the new cssr&csidr */
mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */
and r2, r1, #7 /* extract the length of the cache lines */
add r2, r2, #4 /* add 4 (line length offset) */
ldr r4, =0x3ff
ands r4, r4, r1, lsr #3 /* find maximum number on the way size */
clz r5, r4 /* find bit position of way size increment */
ldr r7, =0x7fff
ands r7, r7, r1, lsr #13 /* extract max number of the index size */
ci_loop2:
mov r9, r4 /* create working copy of max way size */
ci_loop3:
orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */
orr r11, r11, r7, lsl r2 /* factor index number into r11 */
mcr p15, 0, r11, c7, c14, 2 /* clean & invalidate by set/way */
subs r9, r9, #1 /* decrement the way */
bge ci_loop3
subs r7, r7, #1 /* decrement the index */
bge ci_loop2
ci_skip:
add r10, r10, #2 /* increment cache number */
cmp r3, r10
bgt ci_loop1
ci_finished:
mov r10, #0 /* swith back to cache level 0 */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
dsb
isb
pop {r4,r5,r7,r9,r10,r11}
bx lr
.global apmcu_dcache_invalidate
.section .text
.type apmcu_dcache_invalidate,%function
apmcu_dcache_invalidate:
push {r4,r5,r7,r9,r10,r11}
dmb /* ensure ordering with previous memory accesses */
mrc p15, 1, r0, c0, c0, 1 /* read clidr */
ands r3, r0, #0x7000000 /* extract loc from clidr */
mov r3, r3, lsr #23 /* left align loc bit field */
beq cii_finished /* if loc is 0, then no need to clean */
mov r10, #0 /* start clean at cache level 0 */
cii_loop1:
add r2, r10, r10, lsr #1 /* work out 3x current cache level */
mov r1, r0, lsr r2 /* extract cache type bits from clidr */
and r1, r1, #7 /* mask of the bits for current cache only */
cmp r1, #2 /* see what cache we have at this level */
blt cii_skip /* skip if no cache, or just i-cache */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
isb /* isb to sych the new cssr&csidr */
mrc p15, 1, r1, c0, c0, 0 /* read the new csidr */
and r2, r1, #7 /* extract the length of the cache lines */
add r2, r2, #4 /* add 4 (line length offset) */
ldr r4, =0x3ff
ands r4, r4, r1, lsr #3 /* find maximum number on the way size */
clz r5, r4 /* find bit position of way size increment */
ldr r7, =0x7fff
ands r7, r7, r1, lsr #13 /* extract max number of the index size */
cii_loop2:
mov r9, r4 /* create working copy of max way size */
cii_loop3:
orr r11, r10, r9, lsl r5 /* factor way and cache number into r11 */
orr r11, r11, r7, lsl r2 /* factor index number into r11 */
mcr p15, 0, r11, c7, c6, 2 /* invalidate by set/way */
subs r9, r9, #1 /* decrement the way */
bge cii_loop3
subs r7, r7, #1 /* decrement the index */
bge cii_loop2
cii_skip:
add r10, r10, #2 /* increment cache number */
cmp r3, r10
bgt cii_loop1
cii_finished:
mov r10, #0 /* swith back to cache level 0 */
mcr p15, 2, r10, c0, c0, 0 /* select current cache level in cssr */
dsb
isb
pop {r4,r5,r7,r9,r10,r11}
bx lr
.global cache_init
.section .text
.type cache_init,%function
cache_init:
PUSH {R4-R11,LR}
MOV R7, R0
MRS R12, CPSR
CPSID AIF
TST R7, #2
BEQ mmt
MRC p15, 0, R0,c1,c0, 0
TST R0, #4
BEQ mma
BIC R0, R0, #4
MCR p15, 0, R0,c1,c0, 0
BL apmcu_dcache_clean_invalidate
B mmt
mma:
BL apmcu_dcache_invalidate
mmt:
TST R7, #1
BEQ mml
MRC p15, 0, R0,c1,c0, 0
BIC R0, R0, #0x1000
MCR p15, 0, R0,c1,c0, 0
mml:
MOV R0, #0
MCR p15, 0, R0,c7,c5, 0
MSR CPSR_cf, R12
POP {R4-R11,PC}
.global cache_close
.section .text
.type cache_close,%function
cache_close:
PUSH {R4-R11,LR}
MOV R7, R0
MRS R12, CPSR
CPSID AIF
TST R7, #2
BEQ cci
MRC p15, 0, R0,c1,c0, 0
TST R0, #4
BNE cci
BL apmcu_dcache_invalidate
MRC p15, 0, R0,c1,c0, 0
ORR R0, R0, #4
MCR p15, 0, R0,c1,c0, 0
cci:
TST R7, #1
BEQ cct
MOV R0, #0
MCR p15, 0, R0,c7,c5, 0
MRC p15, 0, R0,c1,c0, 0
ORR R0, R0, #0x1000
MCR p15, 0, R0,c1,c0, 0
cct:
MSR CPSR_cf, R12
POP {R4-R11,PC}
|
vincent-sjh/test_undefined-os
| 2,544
|
.arceos/tools/raspi4/chainloader/src/_arch/aarch64/cpu/boot.s
|
// SPDX-License-Identifier: MIT OR Apache-2.0
//
// Copyright (c) 2021-2022 Andre Richter <andre.o.richter@gmail.com>
//--------------------------------------------------------------------------------------------------
// Definitions
//--------------------------------------------------------------------------------------------------
// Load the address of a symbol into a register, PC-relative.
//
// The symbol must lie within +/- 4 GiB of the Program Counter.
//
// # Resources
//
// - https://sourceware.org/binutils/docs-2.36/as/AArch64_002dRelocations.html
.macro ADR_REL register, symbol
adrp \register, \symbol
add \register, \register, #:lo12:\symbol
.endm
// Load the address of a symbol into a register, absolute.
//
// # Resources
//
// - https://sourceware.org/binutils/docs-2.36/as/AArch64_002dRelocations.html
.macro ADR_ABS register, symbol
movz \register, #:abs_g2:\symbol
movk \register, #:abs_g1_nc:\symbol
movk \register, #:abs_g0_nc:\symbol
.endm
//--------------------------------------------------------------------------------------------------
// Public Code
//--------------------------------------------------------------------------------------------------
.section .text._start
//------------------------------------------------------------------------------
// fn _start()
//------------------------------------------------------------------------------
_start:
// Only proceed on the boot core. Park it otherwise.
mrs x0, MPIDR_EL1
and x0, x0, {CONST_CORE_ID_MASK}
ldr x1, BOOT_CORE_ID // provided by bsp/__board_name__/cpu.rs
cmp x0, x1
b.ne .L_parking_loop
// If execution reaches here, it is the boot core.
// Initialize DRAM.
ADR_ABS x0, __bss_start
ADR_ABS x1, __bss_end_exclusive
.L_bss_init_loop:
cmp x0, x1
b.eq .L_relocate_binary
stp xzr, xzr, [x0], #16
b .L_bss_init_loop
// Next, relocate the binary.
.L_relocate_binary:
ADR_REL x0, __binary_nonzero_start // The address the binary got loaded to.
ADR_ABS x1, __binary_nonzero_start // The address the binary was linked to.
ADR_ABS x2, __binary_nonzero_end_exclusive
.L_copy_loop:
ldr x3, [x0], #8
str x3, [x1], #8
cmp x1, x2
b.lo .L_copy_loop
// Prepare the jump to Rust code.
// Set the stack pointer.
ADR_ABS x0, __boot_core_stack_end_exclusive
mov sp, x0
// Jump to the relocated Rust code.
ADR_ABS x1, _start_rust
br x1
// Infinitely wait for events (aka "park the core").
.L_parking_loop:
wfe
b .L_parking_loop
.size _start, . - _start
.type _start, function
.global _start
|
vincent-sjh/test_undefined-os
| 2,001
|
.arceos/modules/axhal/linker.lds.S
|
OUTPUT_ARCH(%ARCH%)
BASE_ADDRESS = %KERNEL_BASE%;
ENTRY(_start)
SECTIONS
{
. = BASE_ADDRESS;
_skernel = .;
.text : ALIGN(4K) {
_stext = .;
*(.text.boot)
*(.text .text.*)
. = ALIGN(4K);
_etext = .;
}
_srodata = .;
.rodata : ALIGN(4K) {
*(.rodata .rodata.*)
*(.srodata .srodata.*)
*(.sdata2 .sdata2.*)
}
.init_array : ALIGN(0x10) {
__init_array_start = .;
*(.init_array .init_array.*)
__init_array_end = .;
}
. = ALIGN(4K);
_erodata = .;
.data : ALIGN(4K) {
_sdata = .;
*(.data.boot_page_table)
. = ALIGN(4K);
*(.data .data.*)
*(.sdata .sdata.*)
*(.got .got.*)
}
.tdata : ALIGN(0x10) {
_stdata = .;
*(.tdata .tdata.*)
_etdata = .;
}
.tbss : ALIGN(0x10) {
_stbss = .;
*(.tbss .tbss.*)
*(.tcommon)
_etbss = .;
}
. = ALIGN(4K);
_percpu_start = .;
_percpu_end = _percpu_start + SIZEOF(.percpu);
.percpu 0x0 : AT(_percpu_start) {
_percpu_load_start = .;
*(.percpu .percpu.*)
_percpu_load_end = .;
. = _percpu_load_start + ALIGN(64) * %SMP%;
}
. = _percpu_end;
. = ALIGN(4K);
_edata = .;
.bss : AT(.) ALIGN(4K) {
boot_stack = .;
*(.bss.stack)
. = ALIGN(4K);
boot_stack_top = .;
_sbss = .;
*(.bss .bss.*)
*(.sbss .sbss.*)
*(COMMON)
. = ALIGN(4K);
_ebss = .;
}
_ekernel = .;
/DISCARD/ : {
*(.comment) *(.gnu*) *(.note*) *(.eh_frame*)
}
}
SECTIONS {
linkme_IRQ : { *(linkme_IRQ) }
linkm2_IRQ : { *(linkm2_IRQ) }
linkme_PAGE_FAULT : { *(linkme_PAGE_FAULT) }
linkm2_PAGE_FAULT : { *(linkm2_PAGE_FAULT) }
linkme_SYSCALL : { *(linkme_SYSCALL) }
linkm2_SYSCALL : { *(linkm2_SYSCALL) }
axns_resource : { *(axns_resource) }
}
INSERT AFTER .tbss;
|
vincent-sjh/test_undefined-os
| 1,791
|
.arceos/modules/axhal/src/arch/loongarch64/trap.S
|
.macro SAVE_REGS, from_user
move $t0, $sp
.if \from_user == 1
csrrd $sp, KSAVE_KSP // restore kernel sp
addi.d $sp, $sp, -{trapframe_size}
STD $tp, $sp, 2
STD $r21, $sp, 21
csrrd $tp, KSAVE_TP
csrrd $r21, KSAVE_R21
.else
addi.d $sp, $sp, -{trapframe_size}
.endif
STD $t0, $sp, 3
csrrd $t0, KSAVE_TEMP
PUSH_GENERAL_REGS
csrrd $t1, LA_CSR_PRMD
csrrd $t2, LA_CSR_ERA
STD $t1, $sp, 32 // prmd
STD $t2, $sp, 33 // era
.endm
.macro RESTORE_REGS, from_user
.if \from_user == 1
csrwr $tp, KSAVE_TP
csrwr $r21, KSAVE_R21
LDD $tp, $sp, 2
LDD $r21, $sp, 21
addi.d $t1, $sp, {trapframe_size}
csrwr $t1, KSAVE_KSP // save kernel sp
.endif
LDD $t1, $sp, 33 // era
LDD $t2, $sp, 32 // prmd
csrwr $t1, LA_CSR_ERA
csrwr $t2, LA_CSR_PRMD
POP_GENERAL_REGS
LDD $sp, $sp, 3
.endm
.section .text
.balign 4096
.global exception_entry_base
exception_entry_base:
csrwr $t0, KSAVE_TEMP
csrrd $t0, LA_CSR_PRMD
andi $t0, $t0, 0x3
bnez $t0, .Lfrom_userspace
.Lfrom_kernel:
SAVE_REGS 0
move $a0, $sp
addi.d $a1, $zero, 0
bl loongarch64_trap_handler
RESTORE_REGS 0
ertn
.Lfrom_userspace:
SAVE_REGS 1
move $a0, $sp
addi.d $a1, $zero, 1
bl loongarch64_trap_handler
RESTORE_REGS 1
ertn
.section .text
.balign 4096
.global handle_tlb_refill
handle_tlb_refill:
csrwr $t0, LA_CSR_TLBRSAVE
csrrd $t0, LA_CSR_PGD
lddir $t0, $t0, 3
lddir $t0, $t0, 2
lddir $t0, $t0, 1
ldpte $t0, 0
ldpte $t0, 1
tlbfill
csrrd $t0, LA_CSR_TLBRSAVE
ertn
|
vincent-sjh/test_undefined-os
| 2,616
|
.arceos/modules/axhal/src/arch/aarch64/trap.S
|
.macro SAVE_REGS
sub sp, sp, 34 * 8
stp x0, x1, [sp]
stp x2, x3, [sp, 2 * 8]
stp x4, x5, [sp, 4 * 8]
stp x6, x7, [sp, 6 * 8]
stp x8, x9, [sp, 8 * 8]
stp x10, x11, [sp, 10 * 8]
stp x12, x13, [sp, 12 * 8]
stp x14, x15, [sp, 14 * 8]
stp x16, x17, [sp, 16 * 8]
stp x18, x19, [sp, 18 * 8]
stp x20, x21, [sp, 20 * 8]
stp x22, x23, [sp, 22 * 8]
stp x24, x25, [sp, 24 * 8]
stp x26, x27, [sp, 26 * 8]
stp x28, x29, [sp, 28 * 8]
mrs x9, sp_el0
mrs x10, elr_el1
mrs x11, spsr_el1
stp x30, x9, [sp, 30 * 8]
stp x10, x11, [sp, 32 * 8]
# We may have interrupted userspace, or a guest, or exit-from or
# return-to either of those. So we can't trust sp_el0, and need to
# restore it.
bl {cache_current_task_ptr}
.endm
.macro RESTORE_REGS
ldp x10, x11, [sp, 32 * 8]
ldp x30, x9, [sp, 30 * 8]
msr sp_el0, x9
msr elr_el1, x10
msr spsr_el1, x11
ldp x28, x29, [sp, 28 * 8]
ldp x26, x27, [sp, 26 * 8]
ldp x24, x25, [sp, 24 * 8]
ldp x22, x23, [sp, 22 * 8]
ldp x20, x21, [sp, 20 * 8]
ldp x18, x19, [sp, 18 * 8]
ldp x16, x17, [sp, 16 * 8]
ldp x14, x15, [sp, 14 * 8]
ldp x12, x13, [sp, 12 * 8]
ldp x10, x11, [sp, 10 * 8]
ldp x8, x9, [sp, 8 * 8]
ldp x6, x7, [sp, 6 * 8]
ldp x4, x5, [sp, 4 * 8]
ldp x2, x3, [sp, 2 * 8]
ldp x0, x1, [sp]
add sp, sp, 34 * 8
.endm
.macro INVALID_EXCP, kind, source
.p2align 7
SAVE_REGS
mov x0, sp
mov x1, \kind
mov x2, \source
bl invalid_exception
b .Lexception_return
.endm
.macro HANDLE_SYNC
.p2align 7
SAVE_REGS
mov x0, sp
bl handle_sync_exception
b .Lexception_return
.endm
.macro HANDLE_IRQ
.p2align 7
SAVE_REGS
mov x0, sp
bl handle_irq_exception
b .Lexception_return
.endm
.section .text
.p2align 11
.global exception_vector_base
exception_vector_base:
// current EL, with SP_EL0
INVALID_EXCP 0 0
INVALID_EXCP 1 0
INVALID_EXCP 2 0
INVALID_EXCP 3 0
// current EL, with SP_ELx
HANDLE_SYNC
HANDLE_IRQ
INVALID_EXCP 2 1
INVALID_EXCP 3 1
// lower EL, aarch64
HANDLE_SYNC
HANDLE_IRQ
INVALID_EXCP 2 2
INVALID_EXCP 3 2
// lower EL, aarch32
INVALID_EXCP 0 3
INVALID_EXCP 1 3
INVALID_EXCP 2 3
INVALID_EXCP 3 3
.Lexception_return:
RESTORE_REGS
eret
|
vincent-sjh/test_undefined-os
| 2,358
|
.arceos/modules/axhal/src/arch/riscv/trap.S
|
.macro SAVE_REGS, from_user
addi sp, sp, -{trapframe_size}
PUSH_GENERAL_REGS
csrr t0, sepc
csrr t1, sstatus
csrrw t2, sscratch, zero // save sscratch (sp) and zero it
STR t0, sp, 31 // tf.sepc
STR t1, sp, 32 // tf.sstatus
STR t2, sp, 1 // tf.regs.sp
.if \from_user == 1
LDR t0, sp, 2 // load supervisor gp
LDR t1, sp, 3 // load supervisor tp
STR gp, sp, 2 // save user gp and tp
STR tp, sp, 3
mv gp, t0
mv tp, t1
.endif
.endm
.macro RESTORE_REGS, from_user
.if \from_user == 1
LDR t1, sp, 2 // load user gp and tp
LDR t0, sp, 3
STR gp, sp, 2 // save supervisor gp
STR tp, sp, 3 // save supervisor gp and tp
mv gp, t1
mv tp, t0
addi t0, sp, {trapframe_size} // put supervisor sp to scratch
csrw sscratch, t0
.endif
// restore sepc
LDR t0, sp, 31
csrw sepc, t0
// restore sstatus, but don't change FS
LDR t0, sp, 32 // t0 = sstatus to restore
csrr t1, sstatus // t1 = current sstatus
li t2, 0x6000 // t2 = mask for FS
and t1, t1, t2 // t1 = current FS
not t2, t2 // t2 = ~(mask for FS)
and t0, t0, t2 // t0 = sstatus to restore(cleared FS)
or t0, t0, t1 // t0 = sstatus to restore with current FS
csrw sstatus, t0 // restore sstatus
POP_GENERAL_REGS
LDR sp, sp, 1 // load sp from tf.regs.sp
.endm
.section .text
.balign 4
.global trap_vector_base
trap_vector_base:
// sscratch == 0: trap from S mode
// sscratch != 0: trap from U mode
csrrw sp, sscratch, sp // swap sscratch and sp
bnez sp, .Ltrap_entry_u
csrr sp, sscratch // put supervisor sp back
j .Ltrap_entry_s
.Ltrap_entry_s:
SAVE_REGS 0
mv a0, sp
li a1, 0
call riscv_trap_handler
RESTORE_REGS 0
sret
.Ltrap_entry_u:
SAVE_REGS 1
mv a0, sp
li a1, 1
call riscv_trap_handler
RESTORE_REGS 1
sret
|
vincent-sjh/test_undefined-os
| 1,505
|
.arceos/modules/axhal/src/arch/x86_64/trap.S
|
.equ NUM_INT, 256
.altmacro
.macro DEF_HANDLER, i
.Ltrap_handler_\i:
.if \i == 8 || (\i >= 10 && \i <= 14) || \i == 17
# error code pushed by CPU
push \i # interrupt vector
jmp .Ltrap_common
.else
push 0 # fill in error code in TrapFrame
push \i # interrupt vector
jmp .Ltrap_common
.endif
.endm
.macro DEF_TABLE_ENTRY, i
.quad .Ltrap_handler_\i
.endm
.section .text
.code64
_trap_handlers:
.set i, 0
.rept NUM_INT
DEF_HANDLER %i
.set i, i + 1
.endr
.Ltrap_common:
test byte ptr [rsp + 3 * 8], 3 # swap GS if it comes from user space
jz 1f
swapgs
1:
push r15
push r14
push r13
push r12
push r11
push r10
push r9
push r8
push rdi
push rsi
push rbp
push rbx
push rdx
push rcx
push rax
mov rdi, rsp
call x86_trap_handler
pop rax
pop rcx
pop rdx
pop rbx
pop rbp
pop rsi
pop rdi
pop r8
pop r9
pop r10
pop r11
pop r12
pop r13
pop r14
pop r15
test byte ptr [rsp + 3 * 8], 3 # swap GS back if return to user space
jz 2f
swapgs
2:
add rsp, 16 # pop vector, error_code
iretq
.section .rodata
.global trap_handler_table
trap_handler_table:
.set i, 0
.rept NUM_INT
DEF_TABLE_ENTRY %i
.set i, i + 1
.endr
|
vincent-sjh/test_undefined-os
| 1,339
|
.arceos/modules/axhal/src/arch/x86_64/syscall.S
|
.section .text
.code64
syscall_entry:
swapgs // switch to kernel gs
mov gs:[offset __PERCPU_USER_RSP_OFFSET], rsp // save user rsp
mov rsp, gs:[offset __PERCPU_TSS + {tss_rsp0_offset}] // switch to kernel stack
sub rsp, 8 // skip user ss
push gs:[offset __PERCPU_USER_RSP_OFFSET] // user rsp
push r11 // rflags
mov [rsp - 2 * 8], rcx // rip
sub rsp, 4 * 8 // skip until general registers
push r15
push r14
push r13
push r12
push r11
push r10
push r9
push r8
push rdi
push rsi
push rbp
push rbx
push rdx
push rcx
push rax
mov rdi, rsp
call x86_syscall_handler
pop rax
pop rcx
pop rdx
pop rbx
pop rbp
pop rsi
pop rdi
pop r8
pop r9
pop r10
pop r11
pop r12
pop r13
pop r14
pop r15
add rsp, 7 * 8
mov rcx, [rsp - 5 * 8] // rip
mov r11, [rsp - 3 * 8] // rflags
mov rsp, [rsp - 2 * 8] // user rsp
swapgs
sysretq
|
vincent-sjh/test_undefined-os
| 1,965
|
.arceos/modules/axhal/src/platform/x86_pc/ap_start.S
|
# Boot application processors into the protected mode.
# Each non-boot CPU ("AP") is started up in response to a STARTUP
# IPI from the boot CPU. Section B.4.2 of the Multi-Processor
# Specification says that the AP will start in real mode with CS:IP
# set to XY00:0000, where XY is an 8-bit value sent with the
# STARTUP. Thus this code must start at a 4096-byte boundary.
#
# Because this code sets DS to zero, it must sit
# at an address in the low 2^16 bytes.
.equ pa_ap_start32, ap_start32 - ap_start + {start_page_paddr}
.equ pa_ap_gdt, .Lap_tmp_gdt - ap_start + {start_page_paddr}
.equ pa_ap_gdt_desc, .Lap_tmp_gdt_desc - ap_start + {start_page_paddr}
.equ stack_ptr, {start_page_paddr} + 0xff0
.equ entry_ptr, {start_page_paddr} + 0xff8
# 0x6000
.section .text
.code16
.p2align 12
.global ap_start
ap_start:
cli
wbinvd
xor ax, ax
mov ds, ax
mov es, ax
mov ss, ax
mov fs, ax
mov gs, ax
# load the 64-bit GDT
lgdt [pa_ap_gdt_desc]
# switch to protected-mode
mov eax, cr0
or eax, (1 << 0)
mov cr0, eax
# far jump to 32-bit code. 0x8 is code32 segment selector
ljmp 0x8, offset pa_ap_start32
.code32
ap_start32:
mov esp, [stack_ptr]
mov eax, [entry_ptr]
jmp eax
.balign 8
# .type multiboot_header, STT_OBJECT
.Lap_tmp_gdt_desc:
.short .Lap_tmp_gdt_end - .Lap_tmp_gdt - 1 # limit
.long pa_ap_gdt # base
.balign 16
.Lap_tmp_gdt:
.quad 0x0000000000000000 # 0x00: null
.quad 0x00cf9b000000ffff # 0x08: code segment (base=0, limit=0xfffff, type=32bit code exec/read, DPL=0, 4k)
.quad 0x00af9b000000ffff # 0x10: code segment (base=0, limit=0xfffff, type=64bit code exec/read, DPL=0, 4k)
.quad 0x00cf93000000ffff # 0x18: data segment (base=0, limit=0xfffff, type=32bit data read/write, DPL=0, 4k)
.Lap_tmp_gdt_end:
# 0x7000
.p2align 12
.global ap_end
ap_end:
|
vincent-sjh/test_undefined-os
| 4,325
|
.arceos/modules/axhal/src/platform/x86_pc/multiboot.S
|
# Bootstrapping from 32-bit with the Multiboot specification.
# See https://www.gnu.org/software/grub/manual/multiboot/multiboot.html
.section .text.boot
.code32
.global _start
_start:
mov edi, eax # arg1: magic: 0x2BADB002
mov esi, ebx # arg2: multiboot info
jmp bsp_entry32
.balign 4
.type multiboot_header, STT_OBJECT
multiboot_header:
.int {mb_hdr_magic} # magic: 0x1BADB002
.int {mb_hdr_flags} # flags
.int -({mb_hdr_magic} + {mb_hdr_flags}) # checksum
.int multiboot_header - {offset} # header_addr
.int _skernel - {offset} # load_addr
.int _edata - {offset} # load_end
.int _ebss - {offset} # bss_end_addr
.int _start - {offset} # entry_addr
# Common code in 32-bit, prepare states to enter 64-bit.
.macro ENTRY32_COMMON
# set data segment selectors
mov ax, 0x18
mov ss, ax
mov ds, ax
mov es, ax
mov fs, ax
mov gs, ax
# set PAE, PGE bit in CR4
mov eax, {cr4}
mov cr4, eax
# load the temporary page table
lea eax, [.Ltmp_pml4 - {offset}]
mov cr3, eax
# set LME, NXE bit in IA32_EFER
mov ecx, {efer_msr}
mov edx, 0
mov eax, {efer}
wrmsr
# set protected mode, write protect, paging bit in CR0
mov eax, {cr0}
mov cr0, eax
.endm
# Common code in 64-bit
.macro ENTRY64_COMMON
# clear segment selectors
xor ax, ax
mov ss, ax
mov ds, ax
mov es, ax
mov fs, ax
mov gs, ax
.endm
.code32
bsp_entry32:
lgdt [.Ltmp_gdt_desc - {offset}] # load the temporary GDT
ENTRY32_COMMON
ljmp 0x10, offset bsp_entry64 - {offset} # 0x10 is code64 segment
.code32
.global ap_entry32
ap_entry32:
ENTRY32_COMMON
ljmp 0x10, offset ap_entry64 - {offset} # 0x10 is code64 segment
.code64
bsp_entry64:
ENTRY64_COMMON
# set RSP to boot stack
movabs rsp, offset {boot_stack}
add rsp, {boot_stack_size}
# call rust_entry(magic, mbi)
movabs rax, offset {entry}
call rax
jmp .Lhlt
.code64
ap_entry64:
ENTRY64_COMMON
# set RSP to high address (already set in ap_start.S)
mov rax, {offset}
add rsp, rax
# call rust_entry_secondary(magic)
mov rdi, {mb_magic}
movabs rax, offset {entry_secondary}
call rax
jmp .Lhlt
.Lhlt:
hlt
jmp .Lhlt
.section .rodata
.balign 8
.Ltmp_gdt_desc:
.short .Ltmp_gdt_end - .Ltmp_gdt - 1 # limit
.long .Ltmp_gdt - {offset} # base
.section .data
.balign 16
.Ltmp_gdt:
.quad 0x0000000000000000 # 0x00: null
.quad 0x00cf9b000000ffff # 0x08: code segment (base=0, limit=0xfffff, type=32bit code exec/read, DPL=0, 4k)
.quad 0x00af9b000000ffff # 0x10: code segment (base=0, limit=0xfffff, type=64bit code exec/read, DPL=0, 4k)
.quad 0x00cf93000000ffff # 0x18: data segment (base=0, limit=0xfffff, type=32bit data read/write, DPL=0, 4k)
.Ltmp_gdt_end:
.balign 4096
.Ltmp_pml4:
# 0x0000_0000 ~ 0xffff_ffff
.quad .Ltmp_pdpt_low - {offset} + 0x3 # PRESENT | WRITABLE | paddr(tmp_pdpt)
.zero 8 * 255
# 0xffff_8000_0000_0000 ~ 0xffff_8000_ffff_ffff
.quad .Ltmp_pdpt_high - {offset} + 0x3 # PRESENT | WRITABLE | paddr(tmp_pdpt)
.zero 8 * 255
# FIXME: may not work on macOS using hvf as the CPU does not support 1GB page (pdpe1gb)
.Ltmp_pdpt_low:
.quad 0x0000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x0)
.quad 0x40000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x4000_0000)
.quad 0x80000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x8000_0000)
.quad 0xc0000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0xc000_0000)
.zero 8 * 508
.Ltmp_pdpt_high:
.quad 0x0000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x0)
.quad 0x40000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x4000_0000)
.quad 0x80000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0x8000_0000)
.quad 0xc0000000 | 0x83 # PRESENT | WRITABLE | HUGE_PAGE | paddr(0xc000_0000)
.zero 8 * 508
|
vinceruizz/cme495-team9-beanbag
| 8,560
|
Core/Startup/startup_stm32f030c6tx.s
|
/**
******************************************************************************
* @file startup_stm32f030x6.s
* @author MCD Application Team
* @brief STM32F030x4/STM32F030x6 devices vector table for GCC toolchain.
* This module performs:
* - Set the initial SP
* - Set the initial PC == Reset_Handler,
* - Set the vector table entries with the exceptions ISR address
* - Branches to main in the C library (which eventually
* calls main()).
* After Reset the Cortex-M0 processor is in Thread mode,
* priority is Privileged, and the Stack is set to Main.
******************************************************************************
* @attention
*
* Copyright (c) 2016 STMicroelectronics.
* All rights reserved.
*
* This software is licensed under terms that can be found in the LICENSE file
* in the root directory of this software component.
* If no LICENSE file comes with this software, it is provided AS-IS.
*
******************************************************************************
*/
.syntax unified
.cpu cortex-m0
.fpu softvfp
.thumb
.global g_pfnVectors
.global Default_Handler
/* start address for the initialization values of the .data section.
defined in linker script */
.word _sidata
/* start address for the .data section. defined in linker script */
.word _sdata
/* end address for the .data section. defined in linker script */
.word _edata
/* start address for the .bss section. defined in linker script */
.word _sbss
/* end address for the .bss section. defined in linker script */
.word _ebss
.section .text.Reset_Handler
.weak Reset_Handler
.type Reset_Handler, %function
Reset_Handler:
ldr r0, =_estack
mov sp, r0 /* set stack pointer */
/* Call the clock system initialization function.*/
bl SystemInit
/* Copy the data segment initializers from flash to SRAM */
ldr r0, =_sdata
ldr r1, =_edata
ldr r2, =_sidata
movs r3, #0
b LoopCopyDataInit
CopyDataInit:
ldr r4, [r2, r3]
str r4, [r0, r3]
adds r3, r3, #4
LoopCopyDataInit:
adds r4, r0, r3
cmp r4, r1
bcc CopyDataInit
/* Zero fill the bss segment. */
ldr r2, =_sbss
ldr r4, =_ebss
movs r3, #0
b LoopFillZerobss
FillZerobss:
str r3, [r2]
adds r2, r2, #4
LoopFillZerobss:
cmp r2, r4
bcc FillZerobss
/* Call static constructors */
bl __libc_init_array
/* Call the application's entry point.*/
bl main
LoopForever:
b LoopForever
.size Reset_Handler, .-Reset_Handler
/**
* @brief This is the code that gets called when the processor receives an
* unexpected interrupt. This simply enters an infinite loop, preserving
* the system state for examination by a debugger.
*
* @param None
* @retval : None
*/
.section .text.Default_Handler,"ax",%progbits
Default_Handler:
Infinite_Loop:
b Infinite_Loop
.size Default_Handler, .-Default_Handler
/******************************************************************************
*
* The minimal vector table for a Cortex M0. Note that the proper constructs
* must be placed on this to ensure that it ends up at physical address
* 0x0000.0000.
*
******************************************************************************/
.section .isr_vector,"a",%progbits
.type g_pfnVectors, %object
.size g_pfnVectors, .-g_pfnVectors
g_pfnVectors:
.word _estack
.word Reset_Handler
.word NMI_Handler
.word HardFault_Handler
.word 0
.word 0
.word 0
.word 0
.word 0
.word 0
.word 0
.word SVC_Handler
.word 0
.word 0
.word PendSV_Handler
.word SysTick_Handler
.word WWDG_IRQHandler /* Window WatchDog */
.word 0 /* Reserved */
.word RTC_IRQHandler /* RTC through the EXTI line */
.word FLASH_IRQHandler /* FLASH */
.word RCC_IRQHandler /* RCC */
.word EXTI0_1_IRQHandler /* EXTI Line 0 and 1 */
.word EXTI2_3_IRQHandler /* EXTI Line 2 and 3 */
.word EXTI4_15_IRQHandler /* EXTI Line 4 to 15 */
.word 0 /* Reserved */
.word DMA1_Channel1_IRQHandler /* DMA1 Channel 1 */
.word DMA1_Channel2_3_IRQHandler /* DMA1 Channel 2 and Channel 3 */
.word DMA1_Channel4_5_IRQHandler /* DMA1 Channel 4 and Channel 5 */
.word ADC1_IRQHandler /* ADC1 */
.word TIM1_BRK_UP_TRG_COM_IRQHandler /* TIM1 Break, Update, Trigger and Commutation */
.word TIM1_CC_IRQHandler /* TIM1 Capture Compare */
.word 0 /* Reserved */
.word TIM3_IRQHandler /* TIM3 */
.word 0 /* Reserved */
.word 0 /* Reserved */
.word TIM14_IRQHandler /* TIM14 */
.word 0 /* Reserved */
.word TIM16_IRQHandler /* TIM16 */
.word TIM17_IRQHandler /* TIM17 */
.word I2C1_IRQHandler /* I2C1 */
.word 0 /* Reserved */
.word SPI1_IRQHandler /* SPI1 */
.word 0 /* Reserved */
.word USART1_IRQHandler /* USART1 */
.word 0 /* Reserved */
.word 0 /* Reserved */
.word 0 /* Reserved */
.word 0 /* Reserved */
/*******************************************************************************
*
* Provide weak aliases for each Exception handler to the Default_Handler.
* As they are weak aliases, any function with the same name will override
* this definition.
*
*******************************************************************************/
.weak NMI_Handler
.thumb_set NMI_Handler,Default_Handler
.weak HardFault_Handler
.thumb_set HardFault_Handler,Default_Handler
.weak SVC_Handler
.thumb_set SVC_Handler,Default_Handler
.weak PendSV_Handler
.thumb_set PendSV_Handler,Default_Handler
.weak SysTick_Handler
.thumb_set SysTick_Handler,Default_Handler
.weak WWDG_IRQHandler
.thumb_set WWDG_IRQHandler,Default_Handler
.weak RTC_IRQHandler
.thumb_set RTC_IRQHandler,Default_Handler
.weak FLASH_IRQHandler
.thumb_set FLASH_IRQHandler,Default_Handler
.weak RCC_IRQHandler
.thumb_set RCC_IRQHandler,Default_Handler
.weak EXTI0_1_IRQHandler
.thumb_set EXTI0_1_IRQHandler,Default_Handler
.weak EXTI2_3_IRQHandler
.thumb_set EXTI2_3_IRQHandler,Default_Handler
.weak EXTI4_15_IRQHandler
.thumb_set EXTI4_15_IRQHandler,Default_Handler
.weak DMA1_Channel1_IRQHandler
.thumb_set DMA1_Channel1_IRQHandler,Default_Handler
.weak DMA1_Channel2_3_IRQHandler
.thumb_set DMA1_Channel2_3_IRQHandler,Default_Handler
.weak DMA1_Channel4_5_IRQHandler
.thumb_set DMA1_Channel4_5_IRQHandler,Default_Handler
.weak ADC1_IRQHandler
.thumb_set ADC1_IRQHandler,Default_Handler
.weak TIM1_BRK_UP_TRG_COM_IRQHandler
.thumb_set TIM1_BRK_UP_TRG_COM_IRQHandler,Default_Handler
.weak TIM1_CC_IRQHandler
.thumb_set TIM1_CC_IRQHandler,Default_Handler
.weak TIM3_IRQHandler
.thumb_set TIM3_IRQHandler,Default_Handler
.weak TIM14_IRQHandler
.thumb_set TIM14_IRQHandler,Default_Handler
.weak TIM16_IRQHandler
.thumb_set TIM16_IRQHandler,Default_Handler
.weak TIM17_IRQHandler
.thumb_set TIM17_IRQHandler,Default_Handler
.weak I2C1_IRQHandler
.thumb_set I2C1_IRQHandler,Default_Handler
.weak SPI1_IRQHandler
.thumb_set SPI1_IRQHandler,Default_Handler
.weak USART1_IRQHandler
.thumb_set USART1_IRQHandler,Default_Handler
|
vni/code_from_books_and_articles
| 6,432
|
MaraBos.Rust_Atomics_and_Locks/chapter7/add_ten.s
|
.text
.file "add_ten.affd3cf1fd86c4f-cgu.0"
.section .text._ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE,"ax",@progbits
.p2align 2
.type _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE,@function
_ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE:
.cfi_startproc
str x30, [sp, #-16]!
.cfi_def_cfa_offset 16
.cfi_offset w30, -16
blr x0
//APP
//NO_APP
ldr x30, [sp], #16
.cfi_def_cfa_offset 0
.cfi_restore w30
ret
.Lfunc_end0:
.size _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE, .Lfunc_end0-_ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE
.cfi_endproc
.section .text._ZN3std2rt10lang_start17h8bee6e7451cb6373E,"ax",@progbits
.hidden _ZN3std2rt10lang_start17h8bee6e7451cb6373E
.globl _ZN3std2rt10lang_start17h8bee6e7451cb6373E
.p2align 2
.type _ZN3std2rt10lang_start17h8bee6e7451cb6373E,@function
_ZN3std2rt10lang_start17h8bee6e7451cb6373E:
.cfi_startproc
stp x30, x0, [sp, #-16]!
.cfi_def_cfa_offset 16
.cfi_offset w30, -16
mov w4, w3
mov x3, x2
mov x2, x1
adrp x1, .L__unnamed_1
add x1, x1, :lo12:.L__unnamed_1
add x0, sp, #8
bl _ZN3std2rt19lang_start_internal17hd1ee6171f586dc89E
ldr x30, [sp], #16
.cfi_def_cfa_offset 0
.cfi_restore w30
ret
.Lfunc_end1:
.size _ZN3std2rt10lang_start17h8bee6e7451cb6373E, .Lfunc_end1-_ZN3std2rt10lang_start17h8bee6e7451cb6373E
.cfi_endproc
.section ".text._ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E","ax",@progbits
.p2align 2
.type _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E,@function
_ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E:
.cfi_startproc
str x30, [sp, #-16]!
.cfi_def_cfa_offset 16
.cfi_offset w30, -16
ldr x0, [x0]
bl _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE
mov w0, wzr
ldr x30, [sp], #16
.cfi_def_cfa_offset 0
.cfi_restore w30
ret
.Lfunc_end2:
.size _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E, .Lfunc_end2-_ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E
.cfi_endproc
.section ".text._ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE","ax",@progbits
.p2align 2
.type _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE,@function
_ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE:
.cfi_startproc
str x30, [sp, #-16]!
.cfi_def_cfa_offset 16
.cfi_offset w30, -16
ldr x0, [x0]
bl _ZN3std10sys_common9backtrace28__rust_begin_short_backtrace17h93832cff871d5aafE
mov w0, wzr
ldr x30, [sp], #16
.cfi_def_cfa_offset 0
.cfi_restore w30
ret
.Lfunc_end3:
.size _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE, .Lfunc_end3-_ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE
.cfi_endproc
.section ".text._ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E","ax",@progbits
.p2align 2
.type _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E,@function
_ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E:
.cfi_startproc
ret
.Lfunc_end4:
.size _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E, .Lfunc_end4-_ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E
.cfi_endproc
.section .text._ZN7add_ten4main17h951ac70448cb6ceaE,"ax",@progbits
.p2align 2
.type _ZN7add_ten4main17h951ac70448cb6ceaE,@function
_ZN7add_ten4main17h951ac70448cb6ceaE:
.cfi_startproc
sub sp, sp, #80
.cfi_def_cfa_offset 80
str x30, [sp, #64]
.cfi_offset w30, -16
adrp x10, :got:_ZN4core3fmt3num3imp52_$LT$impl$u20$core..fmt..Display$u20$for$u20$i32$GT$3fmt17h3085d13a887d5006E
mov w8, #30
add x9, sp, #76
mov x0, sp
ldr x10, [x10, :got_lo12:_ZN4core3fmt3num3imp52_$LT$impl$u20$core..fmt..Display$u20$for$u20$i32$GT$3fmt17h3085d13a887d5006E]
str w8, [sp, #76]
mov w8, #2
stp x9, x10, [sp, #48]
adrp x9, .L__unnamed_2
add x9, x9, :lo12:.L__unnamed_2
add x10, sp, #48
stp x9, x8, [sp]
mov w8, #1
str x10, [sp, #16]
stp x8, xzr, [sp, #24]
bl _ZN3std2io5stdio6_print17h138f95179bc356cdE
ldr x30, [sp, #64]
add sp, sp, #80
.cfi_def_cfa_offset 0
.cfi_restore w30
ret
.Lfunc_end5:
.size _ZN7add_ten4main17h951ac70448cb6ceaE, .Lfunc_end5-_ZN7add_ten4main17h951ac70448cb6ceaE
.cfi_endproc
.section .text.main,"ax",@progbits
.globl main
.p2align 2
.type main,@function
main:
.cfi_startproc
str x30, [sp, #-16]!
.cfi_def_cfa_offset 16
.cfi_offset w30, -16
mov x2, x1
sxtw x1, w0
adrp x0, _ZN7add_ten4main17h951ac70448cb6ceaE
add x0, x0, :lo12:_ZN7add_ten4main17h951ac70448cb6ceaE
mov w3, wzr
bl _ZN3std2rt10lang_start17h8bee6e7451cb6373E
ldr x30, [sp], #16
ret
.Lfunc_end6:
.size main, .Lfunc_end6-main
.cfi_endproc
.type .L__unnamed_1,@object
.section .data.rel.ro..L__unnamed_1,"aw",@progbits
.p2align 3, 0x0
.L__unnamed_1:
.xword _ZN4core3ptr85drop_in_place$LT$std..rt..lang_start$LT$$LP$$RP$$GT$..$u7b$$u7b$closure$u7d$$u7d$$GT$17hf764fd8130b0ec20E
.asciz "\b\000\000\000\000\000\000\000\b\000\000\000\000\000\000"
.xword _ZN4core3ops8function6FnOnce40call_once$u7b$$u7b$vtable.shim$u7d$$u7d$17hc72475ed83484d9dE
.xword _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E
.xword _ZN3std2rt10lang_start28_$u7b$$u7b$closure$u7d$$u7d$17hdad660c94c71ce27E
.size .L__unnamed_1, 48
.type .L__unnamed_3,@object
.section .rodata..L__unnamed_3,"a",@progbits
.L__unnamed_3:
.ascii "v: "
.size .L__unnamed_3, 3
.type .L__unnamed_4,@object
.section .rodata..L__unnamed_4,"a",@progbits
.L__unnamed_4:
.byte 10
.size .L__unnamed_4, 1
.type .L__unnamed_2,@object
.section .data.rel.ro..L__unnamed_2,"aw",@progbits
.p2align 3, 0x0
.L__unnamed_2:
.xword .L__unnamed_3
.asciz "\003\000\000\000\000\000\000"
.xword .L__unnamed_4
.asciz "\001\000\000\000\000\000\000"
.size .L__unnamed_2, 32
.ident "rustc version 1.75.0 (82e1608df 2023-12-21)"
.section ".note.GNU-stack","",@progbits
|
vsoupdotvx/fusion-randomiser
| 1,114
|
src/asm/cooldowns.s
|
.section .text
"CardUI::Awake(&mut self)+0x1E0":
call store_cooldown
.nops 2
"ENDCardUI::Awake(&mut self)+0x1E0":
store_cooldown:
movss CardUI.fullCD(%rbx), %xmm1
movl CardUI.theSeedType(%rbx), %ecx
cmpl $1259, %ecx
ja store_cooldown.locA
call plant_type_flatten_menu
cmpl $48, %eax
jnc store_cooldown.locA
leaq plant_cd_table(%rip), %rdx
movzbl (%rdx,%rax), %edx
xorl %ecx, %ecx
shlb $1, %dl
setnc %cl
cvtsi2ss %edx, %xmm0
mulss const1over254(%rip), %xmm0
addss const1.0(%rip), %xmm0
jrcxz store_cooldown.locB
mulss const0.5(%rip), %xmm0
store_cooldown.locB:
mulss %xmm0, %xmm1
store_cooldown.locA:
movss %xmm1, CardUI.fullCD(%rbx)
movq CardUI.board(%rbx), %rax
ret
fetch_cooldown:
call plant_type_flatten_menu
testq %rax, %rax
js fetch_cooldown.locA
leaq plant_cd_table(%rip), %rcx
movzbl (%rcx,%rax), %eax
fetch_cooldown.locA:
ret
.section .data
const1.0:
.float 1.0
const0.5:
.float 0.5
const1over254:
.float 0.00393700787402
plant_cd_table:
.space 48
|
vsoupdotvx/fusion-randomiser
| 1,239
|
src/asm/tweaks.s
|
.section .text
"AlmanacCard::Start(&mut self)+0x59": #almanac always fully unlocked
movl $1, %eax
"ENDAlmanacCard::Start(&mut self)+0x59":
"CursorChange::SetDefaultCursor()+0xC6": #default cursor is not custom
xorq %rcx, %rcx
"ENDCursorChange::SetDefaultCursor()+0xC6":
"Zombie::Die(&mut self, reason: i32)+0x533": #enflamed nerf (explosion damage 100 -> 10)
movl $10, %r8d
"ENDZombie::Die(&mut self, reason: i32)+0x533":
"Zombie::GetDamage(&mut self, theDamage: i32, theDamageType: DmgType, fix: bool) -> i32+0x2AE": #enflamed nerf (damage mult 2.5 -> 1.5)
.nops 2
"ENDZombie::GetDamage(&mut self, theDamage: i32, theDamageType: DmgType, fix: bool) -> i32+0x2AE":
"Bullet_fireTrack::HitZombie(&mut self, zombie: Zombie)+0x25": #fire cattail "buff" to compensate for enflamed nerf (damage mult 7.5 -> 7.5)
lea (%r8,%r8,4), %r8d
"ENDBullet_fireTrack::HitZombie(&mut self, zombie: Zombie)+0x25":
"Bullet_threeSpike::HitZombie(&mut self, zombie: Zombie)+0x120": #threespiker nerf (30% of max health -> 15% of max health)
call threespike_multiply
.nops 3
"ENDBullet_threeSpike::HitZombie(&mut self, zombie: Zombie)+0x120":
threespike_multiply:
mulss threespike_mul(%rip), %xmm0
ret
.section .data
threespike_mul:
.float 0.15
|
vsoupdotvx/fusion-randomiser
| 15,723
|
src/asm/base.s
|
.section .text
HASH_U32 = 0x1758F99D
"Card::Start(&mut self)+0x1AC":
call replace_card_unlock
"ENDCard::Start(&mut self)+0x1AC":
"Advanture_Btn::OnMouseUp(&mut self)+0x71":
call adventure_level_enter_1
"ENDAdvanture_Btn::OnMouseUp(&mut self)+0x71":
"MainMenu_Btn::OnMouseUp(&mut self)+0x10B":
call adventure_level_enter_2
"ENDMainMenu_Btn::OnMouseUp(&mut self)+0x10B":
"PrizeMgr::Click(&mut self)+0x435":
call set_level_trophy
"ENDPrizeMgr::Click(&mut self)+0x435":
"UIMgr::EnterGame(levelType: LevelType, levelNumber: i32, id: i32, name: String)+0x227":
call rerandomise
nop
"ENDUIMgr::EnterGame(levelType: LevelType, levelNumber: i32, id: i32, name: String)+0x227":
"MixData::InitTravel()+0x54":
call store_mix_data_ptr
.nops 2
"ENDMixData::InitTravel()+0x54":
"PrizeMgr::GoBack(&mut self)+0x17A":
call adventure_level_enter_3
"ENDPrizeMgr::GoBack(&mut self)+0x17A":
"GiveFertilize::AnimGive(&mut self)+0x195":
.nops 6
"ENDGiveFertilize::AnimGive(&mut self)+0x195":
"GiveFertilize::AvaliableToGive() -> bool+0xD4":
movb $0x1, %al
nop
"ENDGiveFertilize::AvaliableToGive() -> bool+0xD4":
"AnimUIOver::Die(&mut self)+0x8DF":
insb
jmp "AnimUIOver::Die.locZ"
"ENDAnimUIOver::Die(&mut self)+0x8DF":
"AnimUIOver::Die(&mut self)+0x9C3":
insb
jmp "AnimUIOver::Die.locBD"
"ENDAnimUIOver::Die(&mut self)+0x9C3":
replace_card_unlock:
movl %ecx, %edx
call plant_type_flatten_menu
testq %rax, %rax
jns replace_card_unlock.locA
movl %edx, %ecx
jmp "Lawnf::CheckIfPlantUnlock(thePlantType: PlantType) -> bool"
replace_card_unlock.locA:
cmpl $"PlantType::CattailGirl", %edx
je replace_card_unlock.locB
cmpl $"PlantType::Gravebuster", %edx
je replace_card_unlock.locC
leaq plant_lut(%rip), %rcx
movl level_idx(%rip), %edx
incl %edx
cmpb %dl, (%rcx,%rax)
setna %al
ret
replace_card_unlock.locB:
imull $0x2493, level_idx(%rip), %edx #this immediate is 65536 / 7 (rounded up), used for modulo
shrl $16, %edx
imull $-7, %edx, %edx
addl level_idx(%rip), %edx
subl $5, %edx
cmpl $-3, %edx
setnc %al
ret
replace_card_unlock.locC:
movb $1, %al
ret
set_level_trophy:
cmpl $"LevelType::Advanture", GameAPP.theBoardType(%rax)
jne set_level_trophy.locA
incl level_idx(%rip)
movl level_idx(%rip), %edx
set_level_trophy.locA:
movb $1, 0x20(%rcx,%rdx)
ret
adventure_level_enter_1:
decl %esi
movl %esi, level_idx(%rip)
mov %rdi, 0x28(%rsp)
leaq level_lut(%rip), %rdi
movzbl (%rdi,%rsi), %esi
ret
adventure_level_enter_3:
incl level_idx(%rip)
adventure_level_enter_2:
leaq level_lut(%rip), %rdx
movl level_idx(%rip), %eax
movzbl (%rdx,%rax), %edx
jmp "UIMgr::EnterGame(levelType: LevelType, levelNumber: i32, id: i32, name: String)"
MAX_PLANT = 1259
plant_type_flatten: #This likely needs to be checked every single update
xorl %eax, %eax
cmpl $1000, %ecx
jc plant_type_flatten.locA
subl $48, %ecx
plant_type_flatten.locA:
testl %ecx, %ecx
sets %al
cmpl $900, %ecx
jc plant_type_flatten.locB
subl $599, %ecx
plant_type_flatten.locB:
negq %rax
cmpl $300, %ecx
jc plant_type_flatten.locC
subl $39, %ecx
plant_type_flatten.locC:
cmpl $233, %ecx
jc plant_type_flatten.locD
subl $193, %ecx
plant_type_flatten.locD:
orq %rcx, %rax
ret
MAX_ZOMBIE = 223
zombie_type_flatten:
xorl %eax, %eax
cmpl $200, %ecx
jc zombie_type_flatten.locA
subl $79, %ecx
zombie_type_flatten.locA:
testl %ecx, %ecx
sets %al
cmpl $100, %ecx
jc zombie_type_flatten.locB
subl $37, %ecx
zombie_type_flatten.locB:
negq %rax
cmpl $2, %ecx
jc zombie_type_flatten.locC
decl %ecx
zombie_type_flatten.locC:
orq %rcx, %rax
ret
zombie_type_widen:
xorl %eax, %eax
testl %ecx, %ecx
sets %al
cmpl $1, %ecx
jc zombie_type_widen.locA
incl %ecx
zombie_type_widen.locA:
negq %rax
cmpl $63, %ecx
jc zombie_type_widen.locB
addl $37, %ecx
zombie_type_widen.locB:
cmpl $121, %ecx
jc zombie_type_widen.locC
addl $79, %ecx
zombie_type_widen.locC:
orq %rcx, %rax
ret
init_hash_table_u32_u32: #log2(table_size) in cl, table in rdx, array in r8, init array in r9, array length in r10
pushq %rdi
pushq %rsi
pushq %rbx
negb %cl
addb $32, %cl
testq %r10, %r10
je init_hash_table_u32_u32.exloopA
xorl %ebx, %ebx
init_hash_table_u32_u32.loopA:
incl %ebx
movl -8(%r9,%rbx,8), %esi
imull $HASH_U32, %esi, %edi
shrl %cl, %edi
movl (%rdx,%rdi,4), %eax
movl %esi, (%r8)
movl %eax, 8(%r8)
movl -4(%r9,%rbx,8), %eax
movl %eax, 4(%r8)
movl %ebx, (%rdx,%rdi,4)
addq $12, %r8
decq %r10
jne init_hash_table_u32_u32.loopA
init_hash_table_u32_u32.exloopA:
popq %rbx
popq %rsi
popq %rdi
ret
plant_type_flatten_menu: #for ease of use, this function saves all registers except ecx (input value) and eax (output value)
pushq %r8
pushq %r9
pushq %rdx
cmpb $0, menu_table_initialized(%rip)
jne plant_type_flatten_menu.locA
pushq %rcx
pushq %r10
movb $6, %cl
leaq menu_table(%rip), %rdx
leaq menu_array(%rip), %r8
leaq menu_init_array(%rip), %r9
movl $65, %r10d
call init_hash_table_u32_u32
movb $1, menu_table_initialized(%rip)
popq %r10
popq %rcx
plant_type_flatten_menu.locA:
imull $HASH_U32, %ecx, %eax
leaq menu_table(%rip), %rdx
leaq menu_array(%rip), %r8
shrl $26, %eax
movl (%rdx,%rax,4), %eax
movq $-1, %rdx
testl %eax, %eax
je plant_type_flatten_menu.exloopA
plant_type_flatten_menu.loopA:
leal (%eax,%eax,2), %eax
cmpl %ecx, -12(%r8,%rax,4)
movl -8(%r8,%rax,4), %edx
je plant_type_flatten_menu.exloopA
movl -4(%r8,%rax,4), %eax
testl %eax, %eax
jne plant_type_flatten_menu.loopA
movq $-1, %rdx
plant_type_flatten_menu.exloopA:
movq %rdx, %rax
popq %rdx
popq %r9
popq %r8
ret
"CardUI::Awake(&mut self)+0x371":
call set_text_size
"ENDCardUI::Awake(&mut self)+0x371":
"CardUI::Update(&mut self)+0x1BD":
jmp set_text_size_2
"ENDCardUI::Update(&mut self)+0x1BD":
set_text_size_2:
pushq %rax
subq $0x28, %rsp
cmpq $0, fetch_cooldown_ptr(%rip)
sete %al
cmpq $0, fetch_firerate_ptr(%rip)
sete %ah
andb %ah, %al
jne set_text_size_2.locA
movq %rdi, %rcx
movb $1, %dl
call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)"
movq %rdi, %rcx
movss packet_font_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)"
movq %rdi, %rcx
movss packet_font_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)"
set_text_size_2.locA:
addq $0x28, %rsp
popq %rax
testq %rdi, %rdi
je "CardUI::Update(&mut self)"+0x231 #TODO
jmp "CardUI::Update(&mut self)"+0x1C2
set_text_size:
pushq %rbp
subq $0x30, %rsp
movq %rdx, %rbp
call "CardUI::Awake.unknown_callB"
cmpq $0, fetch_cooldown_ptr(%rip)
sete %al
cmpq $0, fetch_firerate_ptr(%rip)
sete %ah
andb %ah, %al
jne set_text_size.locA
movq %rbp, %rcx
movb $1, %dl
call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)"
movq %rbp, %rcx
movss packet_font_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)"
movq %rbp, %rcx
movss packet_font_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)"
set_text_size.locA:
addq $0x30, %rsp
popq %rbp
ret
"CardUI::Awake(&mut self)+0x380":
call card_create_label
"ENDCardUI::Awake(&mut self)+0x380":
"CardUI::Update(&mut self)+0x1B8":
call card_create_label
"ENDCardUI::Update(&mut self)+0x1B8":
card_create_label: #seed packet cost in ecx
pushq %rdi
pushq %rsi
pushq %rbp
pushq %rbx
pushq %r14
pushq %r15
subq $0x48, %rsp
xorl %r15d, %r15d
xorl %r14d, %r14d
movl (%rcx), %ecx
testl %ecx, %ecx
sets %r15b
jns card_create_label.locA
negl %ecx
card_create_label.locA:
pxor %xmm2, %xmm2
movaps const4x10.0(%rip), %xmm0
cvtsi2ss %ecx, %xmm5
pshufd $0, %xmm5, %xmm4
pshufd $0, %xmm5, %xmm5
mulps card_create_label.constB(%rip), %xmm5
mulps card_create_label.constA(%rip), %xmm4
movaps %xmm0, %xmm1
cmpq $1, fetch_cooldown_ptr(%rip)
sbbl $-1, %r14d
roundps $3, %xmm5, %xmm5
roundps $3, %xmm4, %xmm4
mulps %xmm5, %xmm0
mulps %xmm4, %xmm1
cmpq $1, fetch_firerate_ptr(%rip)
sbbl $-1, %r14d
palignr $12, %xmm1, %xmm0
palignr $12, %xmm2, %xmm1
subps %xmm0, %xmm5
subps %xmm2, %xmm4
cvtps2dq %xmm5, %xmm5
cvtps2dq %xmm4, %xmm4
packssdw %xmm5, %xmm4
pcmpeqw %xmm4, %xmm2
pmovmskb %xmm2, %esi
xorl $0xFFFF, %esi
orl $0xC000, %esi
bsfl %esi, %esi
negl %esi
addl $16, %esi
leal (%esi,%r15d,2), %ecx
leal (%ecx,%r14d,8), %ecx
shrl $1, %ecx
paddw const8x0x30(%rip), %xmm4
movdqu %xmm4, 0x20(%rsp)
xorl %edx, %edx
call "System::String::FastAllocateString(length: i32) -> String"
movq %rax, %rbp
xorl %ecx, %ecx
call "System.Runtime.CompilerServices::RuntimeHelpers::get_OffsetToStringData() -> i32"
movslq %eax, %r8
addq %r8, %rbp
movw $0x002D, (%rbp,%r14,8)
movq fetch_firerate_ptr(%rip), %r9
testq %r9, %r9
je card_create_label.locB
movq $0x0020002000200020, %rax
movq %rax, (%rbp)
movslq CardUI.theSeedType(%rbx), %rcx
cmpl $1192, %ecx
ja card_create_label.locB
call *%r9 #doesn't affect %r8
imull $9, %eax, %eax
shrl $8, %eax
leaq indicator_lut(%rip), %rcx
movq (%rcx,%rax,8), %rcx
movq %rcx, (%rbp)
card_create_label.locB:
movq fetch_cooldown_ptr(%rip), %r9
testq %r9, %r9
je card_create_label.locC
movq $0x0020002000200020, %rax
movq %rax, -8(%rbp,%r14,8)
movslq CardUI.theSeedType(%rbx), %rcx
call *%r9 #doesn't affect %r8
testl %eax, %eax
js card_create_label.locC
imull $9, %eax, %eax
shrl $8, %eax
leaq indicator_lut(%rip), %rcx
movq (%rcx,%rax,8), %rcx
movq %rcx, -8(%rbp,%r14,8)
card_create_label.locC:
movl %esi, %ecx
leaq 0x30(%rsp), %rsi
leaq (%rbp,%r15,2), %rdi
leaq (%rdi,%r14,8), %rdi
subq %rcx, %rsi
rep movsb
addq $0x48, %rsp
movq %rbp, %rax
subq %r8, %rax
popq %r15
popq %r14
popq %rbx
popq %rbp
popq %rsi
popq %rdi
ret
"InitBoard::ReadySetPlant(&mut self)":
call exit_seed_select
"ENDInitBoard::ReadySetPlant(&mut self)":
exit_seed_select:
movb $0, on_seed_select(%rip)
movq %rbx, 0x10(%rsp)
ret
wait_on_rust:
movb $1, stopped(%rip)
subq $0x20, %rsp
wait_on_rust.locA:
call "System.Threading::Thread::Yield() -> bool"
cmpb $0, stopped(%rip)
jne wait_on_rust.locA
addq $0x20, %rsp
ret
rerandomise:
movl %edi, GameAPP.theBoardLevel(%rcx)
movq %rcx, game_app_ptr(%rip)
movl $1, GameAPP.advantureZhouMu(%rcx)
cmpq $0, mix_data_ptr(%rip)
jne rerandomise.locA
subq $0x28, %rsp
call "MixData::InitMixData()"
addq $0x28, %rsp
rerandomise.locA:
call wait_on_rust
movb $1, on_seed_select(%rip)
ret
store_mix_data_ptr:
movq 0xB8(%rax), %rcx
movq %rcx, mix_data_ptr(%rip)
ret
.section .data
card_create_label.constA:
.float 0.0000001
.float 0.000001
.float 0.00001
.float 0.0001
card_create_label.constB:
.float 0.001
.float 0.01
.float 0.1
.float 1
const8x0x30:
.word 0x30
.word 0x30
.word 0x30
.word 0x30
.word 0x30
.word 0x30
.word 0x30
.word 0x30
const4x10.0:
.float 10
.float 10
.float 10
.float 10
fetch_cooldown_ptr:
.quad "OR_NULL fetch_cooldown"
fetch_firerate_ptr:
.quad "OR_NULL fetch_firerate"
game_app_ptr:
.quad 0
mix_data_ptr:
.quad 0
indicator_lut:
.word 0x0039; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0038; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0037; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0036; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0035; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0034; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0033; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0032; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0031; .word 0x0020; .word 0x007C; .word 0x0020
.word 0x0030; .word 0x0020; .word 0x007C; .word 0x0020
level_idx:
.long 0
menu_init_array:
.long "PlantType::Peashooter"; .long 0
.long "PlantType::SunFlower"; .long 1
.long "PlantType::CherryBomb"; .long 2
.long "PlantType::WallNut"; .long 3
.long "PlantType::PotatoMine"; .long 4
.long "PlantType::Chomper"; .long 5
.long "PlantType::SmallPuff"; .long 6
.long "PlantType::FumeShroom"; .long 7
.long "PlantType::HypnoShroom"; .long 8
.long "PlantType::ScaredyShroom"; .long 9
.long "PlantType::IceShroom"; .long 10
.long "PlantType::DoomShroom"; .long 11
.long "PlantType::LilyPad"; .long 12
.long "PlantType::Squash"; .long 13
.long "PlantType::ThreePeater"; .long 14
.long "PlantType::Tanglekelp"; .long 15
.long "PlantType::Jalapeno"; .long 16
.long "PlantType::Caltrop"; .long 17
.long "PlantType::TorchWood"; .long 18
.long "PlantType::SeaShroom"; .long 19
.long "PlantType::Plantern"; .long 20
.long "PlantType::Cactus"; .long 21
.long "PlantType::Blover"; .long 22
.long "PlantType::StarFruit"; .long 23
.long "PlantType::Pumpkin"; .long 24
.long "PlantType::Magnetshroom"; .long 25
.long "PlantType::Cabbagepult"; .long 26
.long "PlantType::Pot"; .long 27
.long "PlantType::Cornpult"; .long 28
.long "PlantType::Garlic"; .long 29
.long "PlantType::Umbrellaleaf"; .long 30
.long "PlantType::Marigold"; .long 31
.long "PlantType::Melonpult"; .long 32
.long "PlantType::PresentZombie"; .long 33
.long "PlantType::EndoFlame"; .long 34
.long "PlantType::Present"; .long 35
.long "PlantType::TallNut"; .long 36
.long "PlantType::SpikeRock"; .long 37
.long "PlantType::CattailPlant"; .long 38
.long "PlantType::GloomShroom"; .long 39
.long "PlantType::CobCannon"; .long 40
.long "PlantType::Imitater"; .long 41
.long "PlantType::Squalour"; .long 42
.long "PlantType::SwordStar"; .long 43
.long "PlantType::BigSunNut"; .long 44
.long "PlantType::CattailGirl"; .long 45
.long "PlantType::Wheat"; .long 46
.long "PlantType::BigWallNut"; .long 47
.long "PlantType::Shulkflower"; .long 47
.long "PlantType::ElectricOnion"; .long 47
.long "PlantType::PineFurnace"; .long 47
.long "PlantType::SpruceShooter"; .long 47
.long "PlantType::IceLotus"; .long 47
.long "PlantType::WaterAloes"; .long 47
.long "PlantType::Bamboo"; .long 47
.long "PlantType::SnowPresent"; .long 47
.long "PlantType::DiamondPotatoNut"; .long 47
.long "PlantType::PassionFruit"; .long 47
.long "PlantType::FrozenPear"; .long 47
.long "PlantType::IcePeach"; .long 47
.long "PlantType::Chrysantheautumn"; .long 47
.long "PlantType::Gravebuster"; .long 47
.long "PlantType::IceBean"; .long 47
.long "PlantType::EndoFlameGirl"; .long 47
.long "PlantType::Hamburger"; .long 47
packet_font_size:
.float 15.0
menu_table:
.space 0x40 * 4
menu_array:
.space 65 * 12
level_lut:
.space 45, 1 #it's important that this stays at 1 because the first level is entered before anything gets randomised
plant_lut:
.space 48, 0x0
menu_table_initialized:
.byte 0
stopped:
.byte 0
on_seed_select:
.byte 0
|
vsoupdotvx/fusion-randomiser
| 1,565
|
src/asm/tutorials.s
|
.section .text
"TutorManager::Update(&mut self)+0x7D":
.nops 6
"ENDTutorManager::Update(&mut self)+0x7D":
"TutorManager::TutorUpdate1(&mut self)+0x437":
.nops 6
"ENDTutorManager::TutorUpdate1(&mut self)+0x437":
"TutorManager::TutorUpdate1(&mut self)+0x567":
.nops 2
"ENDTutorManager::TutorUpdate1(&mut self)+0x567":
"TutorManager::TutorUpdate4(&mut self)+0xDC":
.nops 6
"ENDTutorManager::TutorUpdate4(&mut self)+0xDC":
"TutorManager::TutorUpdate7(&mut self)+0x21A":
.nops 2
"ENDTutorManager::TutorUpdate7(&mut self)+0x21A":
"TutorManager::TutorUpdate7(&mut self)+0xE9":
.nops 6
"ENDTutorManager::TutorUpdate7(&mut self)+0xE9":
"TutorManager::TutorUpdate8(&mut self)+0x298":
.nops 2
"ENDTutorManager::TutorUpdate8(&mut self)+0x298":
"TutorManager::TutorUpdate8(&mut self)+0x166":
jmp "TutorManager::TutorUpdate8.locL"
nop
"ENDTutorManager::TutorUpdate8(&mut self)+0x166":
"TutorManager::TutorUpdate13(&mut self)+0x394":
.nops 6
"ENDTutorManager::TutorUpdate13(&mut self)+0x394":
"TutorManager::TutorUpdate13(&mut self)+0x4E4":
.nops 6
"ENDTutorManager::TutorUpdate13(&mut self)+0x4E4":
"TutorManager::TutorUpdate22(&mut self)+0x117":
.nops 2
"ENDTutorManager::TutorUpdate22(&mut self)+0x117":
"TutorManager::TutorUpdate24(&mut self)+0xA1":
.nops 6
"ENDTutorManager::TutorUpdate24(&mut self)+0xA1":
"TutorManager::TutorUpdate24(&mut self)+0x105":
.nops 6
"ENDTutorManager::TutorUpdate24(&mut self)+0x105":
nop #the patcher complains if this nop doesn't exist due to the END label not falling on the start of an instruction
|
vsoupdotvx/fusion-randomiser
| 1,545
|
src/asm/firerates.s
|
.section .text
.macro .utf8 char #not actually used because utf16
.ifeq \char >> 6
.byte \char
.else
.ifeq \char >> 11
.byte 0xC0 | \char >> 6
.byte 0x80 | (\char & 0x3F)
.else
.ifeq \char >> 16
.byte 0xE0 | \char >> 12
.byte 0x80 | (\char >> 6 & 0x3F)
.byte 0x80 | (\char & 0x3F)
.else
.byte 0xF0 | \char >> 18
.byte 0x80 | (\char >> 12 & 0x3F)
.byte 0x80 | (\char >> 6 & 0x3F)
.byte 0x80 | (\char & 0x3F)
.endif
.endif
.endif
.endm
"Plant::PlantShootUpdate(&mut self)+0x5C":
call plant_get_firerate
"ENDPlant::PlantShootUpdate(&mut self)+0x5C":
plant_get_firerate:
pushq %rax
pushq %rcx
pushq %rdx
movl Plant.thePlantType(%rbx), %ecx
cmpl $1259, %ecx #MAX_PLANT
ja plant_get_firerate.locA
call plant_type_flatten
leaq plant_firerate_table(%rip), %rdx
movzbq (%rdx,%rax), %rdx
shlb $1, %dl
cvtsi2ss %edx, %xmm6
mulss const1over254(%rip), %xmm6
addss const1.0(%rip), %xmm6
jc plant_get_firerate.locB
mulss const0.5(%rip), %xmm6
jmp plant_get_firerate.locB
plant_get_firerate.locA:
movss const1.0(%rip), %xmm6
plant_get_firerate.locB:
mulss Plant.thePlantAttackInterval(%rbx), %xmm6
popq %rdx
popq %rcx
popq %rax
ret
fetch_firerate:
call plant_type_flatten
leaq plant_firerate_table(%rip), %rcx
movzbl (%rcx,%rax), %eax
ret
.section .data
const1.0:
.float 1.0
const0.5:
.float 0.5
const1over254:
.float 0.00393700787402
plant_firerate_table:
.space 384, 0x00
plant_firerate_table_end:
|
vsoupdotvx/fusion-randomiser
| 1,129
|
src/asm/cost.s
|
.section .text
"CardUI::Awake(&mut self)+0x226":
call cmp_and_store_cost
nop
"ENDCardUI::Awake(&mut self)+0x226":
cmp_and_store_cost:
pushq %rax
movl CardUI.theSeedCost(%rbx), %edx
movl CardUI.theSeedType(%rbx), %ecx
cmpl $1259, %ecx
ja cmp_and_store_cost.locA
call plant_type_flatten_menu
cmpl $48, %eax
jnc cmp_and_store_cost.locA
leaq plant_cost_table(%rip), %rcx
movzbl (%rcx,%rax), %ecx
shlb $1, %cl
cvtsi2ss %ecx, %xmm2
cvtsi2ss %edx, %xmm3
mulss const0.2over254(%rip), %xmm2
addss const0.2(%rip), %xmm2
jc cmp_and_store_cost.locB
mulss const0.5(%rip), %xmm2
cmp_and_store_cost.locB:
mulss %xmm3, %xmm2
cvtss2si %xmm2, %edx
leal (%edx,%edx,4), %edx
cmp_and_store_cost.locA:
movl %edx, CardUI.theSeedCost(%rbx)
xorps %xmm0, %xmm0
ucomiss %xmm0, %xmm1
popq %rax
ret
.section .data
const0.2:
.float 0.20001 #fixes some rounding issues I was having
const0.5:
.float 0.5
const5.0:
.float 5.0
const0.2over254:
.float 0.000787401574804
plant_cost_table:
.space 48
|
vsoupdotvx/fusion-randomiser
| 8,358
|
src/asm/spawns.s
|
.section .text
"InitZombieList::AdvantureZombieTypeSpawn(theLevelNumber: i32)+0x67":
.nops 2
"ENDInitZombieList::AdvantureZombieTypeSpawn(theLevelNumber: i32)+0x67":
"InitZombieList::AllowZombies(zombieTypes: System.Collections.Generic::List<ZombieType>)+0xE9":
jmp init_zombie_list
"ENDInitZombieList::AllowZombies(zombieTypes: System.Collections.Generic::List<ZombieType>)+0xE9":
"InitZombieList::PickZombie() -> ZombieType":
jmp pick_zombie
"ENDInitZombieList::PickZombie() -> ZombieType":
insb
init_zombie_list:
movq %rcx, %rdi
movq zombie_spawn_bitfield(%rip), %rdx
init_zombie_list.loopA:
bsfq %rdx, %rcx
je init_zombie_list.exloopA
btrq %rcx, %rdx
call zombie_type_widen
cmpl %eax, 0x18(%rdi)
jna init_zombie_list.exloopA
movb $1, 0x20(%rdi,%rax)
jmp init_zombie_list.loopA
init_zombie_list.exloopA:
movq zombie_spawn_bitfield+0x8(%rip), %rdx
init_zombie_list.loopB:
bsfq %rdx, %rcx
je init_zombie_list.exloopB
btrq %rcx, %rdx
addl $0x40, %ecx
call zombie_type_widen
cmpl %eax, 0x18(%rdi)
jna init_zombie_list.exloopB
movb $1, 0x20(%rdi,%rax)
jmp init_zombie_list.loopB
init_zombie_list.exloopB:
jmp "InitZombieList::AllowZombies(zombieTypes: System.Collections.Generic::List<ZombieType>)"+0xF5
pick_zombie:
pushq %rbp
pushq %rbx
movq %rsp, %rbp
leaq zombie_spawn_bitfield(%rip), %r8
xorl %edx, %edx
movl $127, %eax
pick_zombie.loopA:
movq %rax, %r9
movl %eax, %ecx
andq $0x3F, %r9
shrl $6, %ecx
btq %r9, (%r8,%rcx,8)
jnc pick_zombie.locA
addl 16(%r8,%rax,4), %edx
pushq %rax
pick_zombie.locA:
subl $1, %eax
jnc pick_zombie.loopA
movq %rsp, %rbx
xorl %ecx, %ecx
andq $-16, %rsp
subq $0x20, %rsp
call "UnityEngine::Random::RandomRangeInt(minInclusive: i32, maxExclusive: i32) -> i32"
movq %rbx, %rsp
leaq zombie_weights(%rip), %rdx
pick_zombie.loopB:
popq %rcx
subl (%rdx,%rcx,4), %eax
jnc pick_zombie.loopB
call zombie_type_widen
movq %rbp, %rsp
popq %rbx
popq %rbp
ret
"Zombie::InitHealth(&mut self)+0x188":
call show_text_if_preview_1
.nops 2
"ENDZombie::InitHealth(&mut self)+0x188":
#"CreateZombie::SetZombie(&mut self, theRow: i32, theZombieType: ZombieType, theX: f32, isIdle: bool) -> UnityEngine::GameObject+0x652":
# jne show_text_if_preview_2
#"ENDCreateZombie::SetZombie(&mut self, theRow: i32, theZombieType: ZombieType, theX: f32, isIdle: bool) -> UnityEngine::GameObject+0x652":
"Zombie::UpdateHealthText(&mut self)+0x9A": #CHANGED
call set_zombie_txt
"ENDZombie::UpdateHealthText(&mut self)+0x9A":
show_text_if_preview_1:
movzbl Board.showZombieHealth(%rdx), %edx
orb on_seed_select(%rip), %dl
ret
#show_text_if_preview_2:
# movq %rdi, %rcx
# xorl %edx, %edx
# call "Zombie::InitHealth(&mut self)"
# jmp "CreateZombie::SetZombie(&mut self, theRow: i32, theZombieType: ZombieType, theX: f32, isIdle: bool) -> UnityEngine::GameObject"+0x77F
set_zombie_txt:
cmpb $0, on_seed_select(%rip)
jne set_zombie_txt.locA
xorl %edx, %edx
xorq %r8, %r8
ret
set_zombie_txt.locA:
subq $0x48, %rsp
movq Zombie.healthText(%rdi), %rbx
movq %rbx, %rcx
movb $1, %dl
call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)"
movq %rbx, %rcx
movss zombie_menu_text_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)"
movq %rbx, %rcx
movss zombie_menu_text_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)"
movq Zombie.healthTextShadow(%rdi), %rbx
movq %rbx, %rcx
movb $1, %dl
call "TMPro::TMP_Text::set_enableAutoSizing(&mut self, value: bool)"
movq %rbx, %rcx
movss zombie_menu_text_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMin(&mut self, value: f32)"
movq %rbx, %rcx
movss zombie_menu_text_size(%rip), %xmm1
call "TMPro::TMP_Text::set_fontSizeMax(&mut self, value: f32)"
movl $68, %ebx
movl Zombie.theZombieType(%rdi), %ecx
leaq zombie_weights(%rip), %rdx
call zombie_type_flatten
movl (%rdx,%rax,4), %ecx
movq %rcx, 0x40(%rsp)
movss 0x200(%rdx,%rax,4), %xmm0
leaq 0x30(%rsp), %rcx
call float_2_string_4sf_0t3xp
movq 0x40(%rsp), %rcx
leaq 0x20(%rsp), %rdx
call int_2_string_fast
addl %eax, %ebx
movl %eax, %ebp
movl %ebx, %ecx
shrl $1, %ecx
call "System::String::FastAllocateString(length: i32) -> String"
movq %rdi, 0x40(%rsp)
movq %rax, %rdi
xorl %ecx, %ecx
call "System.Runtime.CompilerServices::RuntimeHelpers::get_OffsetToStringData() -> i32"
pushq %rdi
movslq %eax, %r8
addq %r8, %rdi
movq $0x0067006900650057, %rax
stosq
movq $0x0020003A00740068, %rax
stosq
pushq %rsi
leaq 0x40(%rsp), %rsi
movl %ebp, %ecx
subq %rbp, %rsi
rep movsb
leaq average_txt(%rip), %rsi
movb $21, %cl
rep movsw
movq 0x40(%rsp), %rax
stosq
movl 0x48(%rsp), %eax
stosw
popq %rsi
popq %rax
movq 0x40(%rsp), %rdi
addq $0x50, %rsp
movq %rsi, 0x38(%rsp)
movq %r14, 0x30(%rsp)
movq Zombie.healthText(%rdi), %r14
jmp "Zombie::UpdateHealthText(&mut self)"+0x353
int_2_string_fast:
pxor %xmm2, %xmm2
movaps const4x10.0(%rip), %xmm0
cvtsi2ss %ecx, %xmm5
pshufd $0, %xmm5, %xmm4
pshufd $0, %xmm5, %xmm5
mulps card_create_label.constB(%rip), %xmm5
mulps card_create_label.constA(%rip), %xmm4
movaps %xmm0, %xmm1
roundps $3, %xmm5, %xmm5
roundps $3, %xmm4, %xmm4
mulps %xmm5, %xmm0
mulps %xmm4, %xmm1
palignr $12, %xmm1, %xmm0
palignr $12, %xmm2, %xmm1
subps %xmm0, %xmm5
subps %xmm1, %xmm4
cvtps2dq %xmm5, %xmm5
cvtps2dq %xmm4, %xmm4
packssdw %xmm5, %xmm4
pcmpeqw %xmm4, %xmm2
pmovmskb %xmm2, %eax
xorl $0xFFFF, %eax
orl $0xC000, %eax
bsfl %eax, %eax
negl %eax
addl $16, %eax
paddw const8x0x30(%rip), %xmm4
movdqu %xmm4, (%rdx)
ret
float_2_string_4sf_0t3xp: #2 sigfigs, 0-3 (decimal) exponent
xorl %edx, %edx
ucomiss const100.0(%rip), %xmm0
jc float_2_string_4sf_0t3xp.locA
ucomiss const1000.0(%rip), %xmm0
setnc %dl
addb $2, %dl
jmp float_2_string_4sf_0t3xp.locB
float_2_string_4sf_0t3xp.locA:
ucomiss const10.0(%rip), %xmm0
setnc %dl
float_2_string_4sf_0t3xp.locB:
leaq float_2_string_4sf_0t3xp.lutA(%rip), %rax
movdqa const4x10.0(%rip), %xmm2
movdqa float_2_string_4sf_0t3xp.constA(%rip), %xmm3
cmpb $3, %dl
jne float_2_string_4sf_0t3xp.locC
movdqa float_2_string_4sf_0t3xp.constB(%rip), %xmm3
float_2_string_4sf_0t3xp.locC:
mulss (%rax,%rdx,4), %xmm0
leaq float_2_string_4sf_0t3xp.lutB(%rip), %rax
shll $4, %edx
addss const0.5(%rip), %xmm0
pshufd $0x00, %xmm0, %xmm1
mulps card_create_label.constB(%rip), %xmm1
roundps $3, %xmm1, %xmm1
mulps %xmm1, %xmm2
pslldq $4, %xmm2
subps %xmm2, %xmm1
cvtps2dq %xmm1, %xmm1
paddd const4x0x30(%rip), %xmm1
packssdw %xmm3, %xmm1
pshufb (%rax,%rdx), %xmm1
movdqa %xmm1, (%rcx)
ret
.section .data
const4x0x30:
.long 0x30
.long 0x30
.long 0x30
.long 0x30
float_2_string_4sf_0t3xp.constA:
.long 0
.long 0
.long 0
.long 0x2E
float_2_string_4sf_0t3xp.constB:
.long 0
.long 0
.long 0
.long 0x2C
float_2_string_4sf_0t3xp.lutA:
const1000.0:
.float 1000.0
const100.0:
.float 100.0
const10.0:
.float 10.0
.float 1.0
float_2_string_4sf_0t3xp.lutB:
.word 0x0100
.word 0x0F0E
.word 0x0302
.word 0x0504
.word 0x0706
.space 0x6, 0x8
.word 0x0100
.word 0x0302
.word 0x0F0E
.word 0x0504
.word 0x0706
.space 0x6, 0x8
.word 0x0100
.word 0x0302
.word 0x0504
.word 0x0F0E
.word 0x0706
.space 0x6, 0x8
.word 0x0100
.word 0x0F0E
.word 0x0302
.word 0x0504
.word 0x0706
.space 0x6, 0x8
const0.5:
.float 0.5
zombie_menu_text_size:
.float 2.0
average_txt:
.ascii "\n\0A\0v\0e\0r\0a\0g\0e\0 \0#\0 \0i\0n\0 \0l\0e\0v\0e\0l\0:\0 \0"
.align 16
zombie_spawn_bitfield: #size: 46 + 19 + 24 = 89
.quad 0xFFFFAFFFFFFFFFFF
.quad 0x7FFFFFF
zombie_weights:
.space 512, 0x0
zombie_freqs:
.space 512, 0x0
|
Vtyeshe/geoai-backend
| 7,228
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/lzma-sys-0.1.20/xz-5.2/src/liblzma/check/crc32_x86.S
|
/*
* Speed-optimized CRC32 using slicing-by-eight algorithm
*
* This uses only i386 instructions, but it is optimized for i686 and later
* (including e.g. Pentium II/III/IV, Athlon XP, and Core 2). For i586
* (e.g. Pentium), slicing-by-four would be better, and even the C version
* of slicing-by-eight built with gcc -march=i586 tends to be a little bit
* better than this. Very few probably run this code on i586 or older x86
* so this shouldn't be a problem in practice.
*
* Authors: Igor Pavlov (original version)
* Lasse Collin (AT&T syntax, PIC support, better portability)
*
* This file has been put into the public domain.
* You can do whatever you want with this file.
*
* This code needs lzma_crc32_table, which can be created using the
* following C code:
uint32_t lzma_crc32_table[8][256];
void
init_table(void)
{
// IEEE-802.3
static const uint32_t poly32 = UINT32_C(0xEDB88320);
// Castagnoli
// static const uint32_t poly32 = UINT32_C(0x82F63B78);
// Koopman
// static const uint32_t poly32 = UINT32_C(0xEB31D82E);
for (size_t s = 0; s < 8; ++s) {
for (size_t b = 0; b < 256; ++b) {
uint32_t r = s == 0 ? b : lzma_crc32_table[s - 1][b];
for (size_t i = 0; i < 8; ++i) {
if (r & 1)
r = (r >> 1) ^ poly32;
else
r >>= 1;
}
lzma_crc32_table[s][b] = r;
}
}
}
* The prototype of the CRC32 function:
* extern uint32_t lzma_crc32(const uint8_t *buf, size_t size, uint32_t crc);
*/
/*
* On some systems, the functions need to be prefixed. The prefix is
* usually an underscore.
*/
#ifndef __USER_LABEL_PREFIX__
# define __USER_LABEL_PREFIX__
#endif
#define MAKE_SYM_CAT(prefix, sym) prefix ## sym
#define MAKE_SYM(prefix, sym) MAKE_SYM_CAT(prefix, sym)
#define LZMA_CRC32 MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc32)
#define LZMA_CRC32_TABLE MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc32_table)
/*
* Solaris assembler doesn't have .p2align, and Darwin uses .align
* differently than GNU/Linux and Solaris.
*/
#if defined(__APPLE__) || defined(__MSDOS__)
# define ALIGN(pow2, abs) .align pow2
#else
# define ALIGN(pow2, abs) .align abs
#endif
.text
.globl LZMA_CRC32
#if !defined(__APPLE__) && !defined(_WIN32) && !defined(__CYGWIN__) \
&& !defined(__MSDOS__)
.type LZMA_CRC32, @function
#endif
ALIGN(4, 16)
LZMA_CRC32:
/*
* Register usage:
* %eax crc
* %esi buf
* %edi size or buf + size
* %ebx lzma_crc32_table
* %ebp Table index
* %ecx Temporary
* %edx Temporary
*/
pushl %ebx
pushl %esi
pushl %edi
pushl %ebp
movl 0x14(%esp), %esi /* buf */
movl 0x18(%esp), %edi /* size */
movl 0x1C(%esp), %eax /* crc */
/*
* Store the address of lzma_crc32_table to %ebx. This is needed to
* get position-independent code (PIC).
*
* The PIC macro is defined by libtool, while __PIC__ is defined
* by GCC but only on some systems. Testing for both makes it simpler
* to test this code without libtool, and keeps the code working also
* when built with libtool but using something else than GCC.
*
* I understood that libtool may define PIC on Windows even though
* the code in Windows DLLs is not PIC in sense that it is in ELF
* binaries, so we need a separate check to always use the non-PIC
* code on Windows.
*/
#if (!defined(PIC) && !defined(__PIC__)) \
|| (defined(_WIN32) || defined(__CYGWIN__))
/* Not PIC */
movl $ LZMA_CRC32_TABLE, %ebx
#elif defined(__APPLE__)
/* Mach-O */
call .L_get_pc
.L_pic:
leal .L_lzma_crc32_table$non_lazy_ptr-.L_pic(%ebx), %ebx
movl (%ebx), %ebx
#else
/* ELF */
call .L_get_pc
addl $_GLOBAL_OFFSET_TABLE_, %ebx
movl LZMA_CRC32_TABLE@GOT(%ebx), %ebx
#endif
/* Complement the initial value. */
notl %eax
ALIGN(4, 16)
.L_align:
/*
* Check if there is enough input to use slicing-by-eight.
* We need 16 bytes, because the loop pre-reads eight bytes.
*/
cmpl $16, %edi
jb .L_rest
/* Check if we have reached alignment of eight bytes. */
testl $7, %esi
jz .L_slice
/* Calculate CRC of the next input byte. */
movzbl (%esi), %ebp
incl %esi
movzbl %al, %ecx
xorl %ecx, %ebp
shrl $8, %eax
xorl (%ebx, %ebp, 4), %eax
decl %edi
jmp .L_align
ALIGN(2, 4)
.L_slice:
/*
* If we get here, there's at least 16 bytes of aligned input
* available. Make %edi multiple of eight bytes. Store the possible
* remainder over the "size" variable in the argument stack.
*/
movl %edi, 0x18(%esp)
andl $-8, %edi
subl %edi, 0x18(%esp)
/*
* Let %edi be buf + size - 8 while running the main loop. This way
* we can compare for equality to determine when exit the loop.
*/
addl %esi, %edi
subl $8, %edi
/* Read in the first eight aligned bytes. */
xorl (%esi), %eax
movl 4(%esi), %ecx
movzbl %cl, %ebp
.L_loop:
movl 0x0C00(%ebx, %ebp, 4), %edx
movzbl %ch, %ebp
xorl 0x0800(%ebx, %ebp, 4), %edx
shrl $16, %ecx
xorl 8(%esi), %edx
movzbl %cl, %ebp
xorl 0x0400(%ebx, %ebp, 4), %edx
movzbl %ch, %ebp
xorl (%ebx, %ebp, 4), %edx
movzbl %al, %ebp
/*
* Read the next four bytes, for which the CRC is calculated
* on the next interation of the loop.
*/
movl 12(%esi), %ecx
xorl 0x1C00(%ebx, %ebp, 4), %edx
movzbl %ah, %ebp
shrl $16, %eax
xorl 0x1800(%ebx, %ebp, 4), %edx
movzbl %ah, %ebp
movzbl %al, %eax
movl 0x1400(%ebx, %eax, 4), %eax
addl $8, %esi
xorl %edx, %eax
xorl 0x1000(%ebx, %ebp, 4), %eax
/* Check for end of aligned input. */
cmpl %edi, %esi
movzbl %cl, %ebp
jne .L_loop
/*
* Process the remaining eight bytes, which we have already
* copied to %ecx and %edx.
*/
movl 0x0C00(%ebx, %ebp, 4), %edx
movzbl %ch, %ebp
xorl 0x0800(%ebx, %ebp, 4), %edx
shrl $16, %ecx
movzbl %cl, %ebp
xorl 0x0400(%ebx, %ebp, 4), %edx
movzbl %ch, %ebp
xorl (%ebx, %ebp, 4), %edx
movzbl %al, %ebp
xorl 0x1C00(%ebx, %ebp, 4), %edx
movzbl %ah, %ebp
shrl $16, %eax
xorl 0x1800(%ebx, %ebp, 4), %edx
movzbl %ah, %ebp
movzbl %al, %eax
movl 0x1400(%ebx, %eax, 4), %eax
addl $8, %esi
xorl %edx, %eax
xorl 0x1000(%ebx, %ebp, 4), %eax
/* Copy the number of remaining bytes to %edi. */
movl 0x18(%esp), %edi
.L_rest:
/* Check for end of input. */
testl %edi, %edi
jz .L_return
/* Calculate CRC of the next input byte. */
movzbl (%esi), %ebp
incl %esi
movzbl %al, %ecx
xorl %ecx, %ebp
shrl $8, %eax
xorl (%ebx, %ebp, 4), %eax
decl %edi
jmp .L_rest
.L_return:
/* Complement the final value. */
notl %eax
popl %ebp
popl %edi
popl %esi
popl %ebx
ret
#if defined(PIC) || defined(__PIC__)
ALIGN(4, 16)
.L_get_pc:
movl (%esp), %ebx
ret
#endif
#if defined(__APPLE__) && (defined(PIC) || defined(__PIC__))
/* Mach-O PIC */
.section __IMPORT,__pointers,non_lazy_symbol_pointers
.L_lzma_crc32_table$non_lazy_ptr:
.indirect_symbol LZMA_CRC32_TABLE
.long 0
#elif defined(_WIN32) || defined(__CYGWIN__)
# ifdef DLL_EXPORT
/* This is equivalent of __declspec(dllexport). */
.section .drectve
.ascii " -export:lzma_crc32"
# endif
#elif !defined(__MSDOS__)
/* ELF */
.size LZMA_CRC32, .-LZMA_CRC32
#endif
/*
* This is needed to support non-executable stack. It's ugly to
* use __linux__ here, but I don't know a way to detect when
* we are using GNU assembler.
*/
#if defined(__ELF__) && defined(__linux__)
.section .note.GNU-stack,"",@progbits
#endif
|
Vtyeshe/geoai-backend
| 6,761
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/lzma-sys-0.1.20/xz-5.2/src/liblzma/check/crc64_x86.S
|
/*
* Speed-optimized CRC64 using slicing-by-four algorithm
*
* This uses only i386 instructions, but it is optimized for i686 and later
* (including e.g. Pentium II/III/IV, Athlon XP, and Core 2).
*
* Authors: Igor Pavlov (original CRC32 assembly code)
* Lasse Collin (CRC64 adaptation of the modified CRC32 code)
*
* This file has been put into the public domain.
* You can do whatever you want with this file.
*
* This code needs lzma_crc64_table, which can be created using the
* following C code:
uint64_t lzma_crc64_table[4][256];
void
init_table(void)
{
// ECMA-182
static const uint64_t poly64 = UINT64_C(0xC96C5795D7870F42);
for (size_t s = 0; s < 4; ++s) {
for (size_t b = 0; b < 256; ++b) {
uint64_t r = s == 0 ? b : lzma_crc64_table[s - 1][b];
for (size_t i = 0; i < 8; ++i) {
if (r & 1)
r = (r >> 1) ^ poly64;
else
r >>= 1;
}
lzma_crc64_table[s][b] = r;
}
}
}
* The prototype of the CRC64 function:
* extern uint64_t lzma_crc64(const uint8_t *buf, size_t size, uint64_t crc);
*/
/*
* On some systems, the functions need to be prefixed. The prefix is
* usually an underscore.
*/
#ifndef __USER_LABEL_PREFIX__
# define __USER_LABEL_PREFIX__
#endif
#define MAKE_SYM_CAT(prefix, sym) prefix ## sym
#define MAKE_SYM(prefix, sym) MAKE_SYM_CAT(prefix, sym)
#define LZMA_CRC64 MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc64)
#define LZMA_CRC64_TABLE MAKE_SYM(__USER_LABEL_PREFIX__, lzma_crc64_table)
/*
* Solaris assembler doesn't have .p2align, and Darwin uses .align
* differently than GNU/Linux and Solaris.
*/
#if defined(__APPLE__) || defined(__MSDOS__)
# define ALIGN(pow2, abs) .align pow2
#else
# define ALIGN(pow2, abs) .align abs
#endif
.text
.globl LZMA_CRC64
#if !defined(__APPLE__) && !defined(_WIN32) && !defined(__CYGWIN__) \
&& !defined(__MSDOS__)
.type LZMA_CRC64, @function
#endif
ALIGN(4, 16)
LZMA_CRC64:
/*
* Register usage:
* %eax crc LSB
* %edx crc MSB
* %esi buf
* %edi size or buf + size
* %ebx lzma_crc64_table
* %ebp Table index
* %ecx Temporary
*/
pushl %ebx
pushl %esi
pushl %edi
pushl %ebp
movl 0x14(%esp), %esi /* buf */
movl 0x18(%esp), %edi /* size */
movl 0x1C(%esp), %eax /* crc LSB */
movl 0x20(%esp), %edx /* crc MSB */
/*
* Store the address of lzma_crc64_table to %ebx. This is needed to
* get position-independent code (PIC).
*
* The PIC macro is defined by libtool, while __PIC__ is defined
* by GCC but only on some systems. Testing for both makes it simpler
* to test this code without libtool, and keeps the code working also
* when built with libtool but using something else than GCC.
*
* I understood that libtool may define PIC on Windows even though
* the code in Windows DLLs is not PIC in sense that it is in ELF
* binaries, so we need a separate check to always use the non-PIC
* code on Windows.
*/
#if (!defined(PIC) && !defined(__PIC__)) \
|| (defined(_WIN32) || defined(__CYGWIN__))
/* Not PIC */
movl $ LZMA_CRC64_TABLE, %ebx
#elif defined(__APPLE__)
/* Mach-O */
call .L_get_pc
.L_pic:
leal .L_lzma_crc64_table$non_lazy_ptr-.L_pic(%ebx), %ebx
movl (%ebx), %ebx
#else
/* ELF */
call .L_get_pc
addl $_GLOBAL_OFFSET_TABLE_, %ebx
movl LZMA_CRC64_TABLE@GOT(%ebx), %ebx
#endif
/* Complement the initial value. */
notl %eax
notl %edx
.L_align:
/*
* Check if there is enough input to use slicing-by-four.
* We need eight bytes, because the loop pre-reads four bytes.
*/
cmpl $8, %edi
jb .L_rest
/* Check if we have reached alignment of four bytes. */
testl $3, %esi
jz .L_slice
/* Calculate CRC of the next input byte. */
movzbl (%esi), %ebp
incl %esi
movzbl %al, %ecx
xorl %ecx, %ebp
shrdl $8, %edx, %eax
xorl (%ebx, %ebp, 8), %eax
shrl $8, %edx
xorl 4(%ebx, %ebp, 8), %edx
decl %edi
jmp .L_align
.L_slice:
/*
* If we get here, there's at least eight bytes of aligned input
* available. Make %edi multiple of four bytes. Store the possible
* remainder over the "size" variable in the argument stack.
*/
movl %edi, 0x18(%esp)
andl $-4, %edi
subl %edi, 0x18(%esp)
/*
* Let %edi be buf + size - 4 while running the main loop. This way
* we can compare for equality to determine when exit the loop.
*/
addl %esi, %edi
subl $4, %edi
/* Read in the first four aligned bytes. */
movl (%esi), %ecx
.L_loop:
xorl %eax, %ecx
movzbl %cl, %ebp
movl 0x1800(%ebx, %ebp, 8), %eax
xorl %edx, %eax
movl 0x1804(%ebx, %ebp, 8), %edx
movzbl %ch, %ebp
xorl 0x1000(%ebx, %ebp, 8), %eax
xorl 0x1004(%ebx, %ebp, 8), %edx
shrl $16, %ecx
movzbl %cl, %ebp
xorl 0x0800(%ebx, %ebp, 8), %eax
xorl 0x0804(%ebx, %ebp, 8), %edx
movzbl %ch, %ebp
addl $4, %esi
xorl (%ebx, %ebp, 8), %eax
xorl 4(%ebx, %ebp, 8), %edx
/* Check for end of aligned input. */
cmpl %edi, %esi
/*
* Copy the next input byte to %ecx. It is slightly faster to
* read it here than at the top of the loop.
*/
movl (%esi), %ecx
jb .L_loop
/*
* Process the remaining four bytes, which we have already
* copied to %ecx.
*/
xorl %eax, %ecx
movzbl %cl, %ebp
movl 0x1800(%ebx, %ebp, 8), %eax
xorl %edx, %eax
movl 0x1804(%ebx, %ebp, 8), %edx
movzbl %ch, %ebp
xorl 0x1000(%ebx, %ebp, 8), %eax
xorl 0x1004(%ebx, %ebp, 8), %edx
shrl $16, %ecx
movzbl %cl, %ebp
xorl 0x0800(%ebx, %ebp, 8), %eax
xorl 0x0804(%ebx, %ebp, 8), %edx
movzbl %ch, %ebp
addl $4, %esi
xorl (%ebx, %ebp, 8), %eax
xorl 4(%ebx, %ebp, 8), %edx
/* Copy the number of remaining bytes to %edi. */
movl 0x18(%esp), %edi
.L_rest:
/* Check for end of input. */
testl %edi, %edi
jz .L_return
/* Calculate CRC of the next input byte. */
movzbl (%esi), %ebp
incl %esi
movzbl %al, %ecx
xorl %ecx, %ebp
shrdl $8, %edx, %eax
xorl (%ebx, %ebp, 8), %eax
shrl $8, %edx
xorl 4(%ebx, %ebp, 8), %edx
decl %edi
jmp .L_rest
.L_return:
/* Complement the final value. */
notl %eax
notl %edx
popl %ebp
popl %edi
popl %esi
popl %ebx
ret
#if defined(PIC) || defined(__PIC__)
ALIGN(4, 16)
.L_get_pc:
movl (%esp), %ebx
ret
#endif
#if defined(__APPLE__) && (defined(PIC) || defined(__PIC__))
/* Mach-O PIC */
.section __IMPORT,__pointers,non_lazy_symbol_pointers
.L_lzma_crc64_table$non_lazy_ptr:
.indirect_symbol LZMA_CRC64_TABLE
.long 0
#elif defined(_WIN32) || defined(__CYGWIN__)
# ifdef DLL_EXPORT
/* This is equivalent of __declspec(dllexport). */
.section .drectve
.ascii " -export:lzma_crc64"
# endif
#elif !defined(__MSDOS__)
/* ELF */
.size LZMA_CRC64, .-LZMA_CRC64
#endif
/*
* This is needed to support non-executable stack. It's ugly to
* use __linux__ here, but I don't know a way to detect when
* we are using GNU assembler.
*/
#if defined(__ELF__) && defined(__linux__)
.section .note.GNU-stack,"",@progbits
#endif
|
Vtyeshe/geoai-backend
| 15,150
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/zstd-sys-2.0.15+zstd.1.5.7/zstd/lib/decompress/huf_decompress_amd64.S
|
/*
* Copyright (c) Meta Platforms, Inc. and affiliates.
* All rights reserved.
*
* This source code is licensed under both the BSD-style license (found in the
* LICENSE file in the root directory of this source tree) and the GPLv2 (found
* in the COPYING file in the root directory of this source tree).
* You may select, at your option, one of the above-listed licenses.
*/
#include "../common/portability_macros.h"
#if defined(__ELF__) && defined(__GNUC__)
/* Stack marking
* ref: https://wiki.gentoo.org/wiki/Hardened/GNU_stack_quickstart
*/
.section .note.GNU-stack,"",%progbits
#if defined(__aarch64__)
/* Mark that this assembly supports BTI & PAC, because it is empty for aarch64.
* See: https://github.com/facebook/zstd/issues/3841
* See: https://gcc.godbolt.org/z/sqr5T4ffK
* See: https://lore.kernel.org/linux-arm-kernel/20200429211641.9279-8-broonie@kernel.org/
* See: https://reviews.llvm.org/D62609
*/
.pushsection .note.gnu.property, "a"
.p2align 3
.long 4 /* size of the name - "GNU\0" */
.long 0x10 /* size of descriptor */
.long 0x5 /* NT_GNU_PROPERTY_TYPE_0 */
.asciz "GNU"
.long 0xc0000000 /* pr_type - GNU_PROPERTY_AARCH64_FEATURE_1_AND */
.long 4 /* pr_datasz - 4 bytes */
.long 3 /* pr_data - GNU_PROPERTY_AARCH64_FEATURE_1_BTI | GNU_PROPERTY_AARCH64_FEATURE_1_PAC */
.p2align 3 /* pr_padding - bring everything to 8 byte alignment */
.popsection
#endif
#endif
#if ZSTD_ENABLE_ASM_X86_64_BMI2
/* Calling convention:
*
* %rdi (or %rcx on Windows) contains the first argument: HUF_DecompressAsmArgs*.
* %rbp isn't maintained (no frame pointer).
* %rsp contains the stack pointer that grows down.
* No red-zone is assumed, only addresses >= %rsp are used.
* All register contents are preserved.
*/
ZSTD_HIDE_ASM_FUNCTION(HUF_decompress4X1_usingDTable_internal_fast_asm_loop)
ZSTD_HIDE_ASM_FUNCTION(HUF_decompress4X2_usingDTable_internal_fast_asm_loop)
ZSTD_HIDE_ASM_FUNCTION(_HUF_decompress4X2_usingDTable_internal_fast_asm_loop)
ZSTD_HIDE_ASM_FUNCTION(_HUF_decompress4X1_usingDTable_internal_fast_asm_loop)
.global HUF_decompress4X1_usingDTable_internal_fast_asm_loop
.global HUF_decompress4X2_usingDTable_internal_fast_asm_loop
.global _HUF_decompress4X1_usingDTable_internal_fast_asm_loop
.global _HUF_decompress4X2_usingDTable_internal_fast_asm_loop
.text
/* Sets up register mappings for clarity.
* op[], bits[], dtable & ip[0] each get their own register.
* ip[1,2,3] & olimit alias var[].
* %rax is a scratch register.
*/
#define op0 rsi
#define op1 rbx
#define op2 rcx
#define op3 rdi
#define ip0 r8
#define ip1 r9
#define ip2 r10
#define ip3 r11
#define bits0 rbp
#define bits1 rdx
#define bits2 r12
#define bits3 r13
#define dtable r14
#define olimit r15
/* var[] aliases ip[1,2,3] & olimit
* ip[1,2,3] are saved every iteration.
* olimit is only used in compute_olimit.
*/
#define var0 r15
#define var1 r9
#define var2 r10
#define var3 r11
/* 32-bit var registers */
#define vard0 r15d
#define vard1 r9d
#define vard2 r10d
#define vard3 r11d
/* Calls X(N) for each stream 0, 1, 2, 3. */
#define FOR_EACH_STREAM(X) \
X(0); \
X(1); \
X(2); \
X(3)
/* Calls X(N, idx) for each stream 0, 1, 2, 3. */
#define FOR_EACH_STREAM_WITH_INDEX(X, idx) \
X(0, idx); \
X(1, idx); \
X(2, idx); \
X(3, idx)
/* Define both _HUF_* & HUF_* symbols because MacOS
* C symbols are prefixed with '_' & Linux symbols aren't.
*/
_HUF_decompress4X1_usingDTable_internal_fast_asm_loop:
HUF_decompress4X1_usingDTable_internal_fast_asm_loop:
ZSTD_CET_ENDBRANCH
/* Save all registers - even if they are callee saved for simplicity. */
push %rax
push %rbx
push %rcx
push %rdx
push %rbp
push %rsi
push %rdi
push %r8
push %r9
push %r10
push %r11
push %r12
push %r13
push %r14
push %r15
/* Read HUF_DecompressAsmArgs* args from %rax */
#if defined(_WIN32)
movq %rcx, %rax
#else
movq %rdi, %rax
#endif
movq 0(%rax), %ip0
movq 8(%rax), %ip1
movq 16(%rax), %ip2
movq 24(%rax), %ip3
movq 32(%rax), %op0
movq 40(%rax), %op1
movq 48(%rax), %op2
movq 56(%rax), %op3
movq 64(%rax), %bits0
movq 72(%rax), %bits1
movq 80(%rax), %bits2
movq 88(%rax), %bits3
movq 96(%rax), %dtable
push %rax /* argument */
push 104(%rax) /* ilowest */
push 112(%rax) /* oend */
push %olimit /* olimit space */
subq $24, %rsp
.L_4X1_compute_olimit:
/* Computes how many iterations we can do safely
* %r15, %rax may be clobbered
* rbx, rdx must be saved
* op3 & ip0 mustn't be clobbered
*/
movq %rbx, 0(%rsp)
movq %rdx, 8(%rsp)
movq 32(%rsp), %rax /* rax = oend */
subq %op3, %rax /* rax = oend - op3 */
/* r15 = (oend - op3) / 5 */
movabsq $-3689348814741910323, %rdx
mulq %rdx
movq %rdx, %r15
shrq $2, %r15
movq %ip0, %rax /* rax = ip0 */
movq 40(%rsp), %rdx /* rdx = ilowest */
subq %rdx, %rax /* rax = ip0 - ilowest */
movq %rax, %rbx /* rbx = ip0 - ilowest */
/* rdx = (ip0 - ilowest) / 7 */
movabsq $2635249153387078803, %rdx
mulq %rdx
subq %rdx, %rbx
shrq %rbx
addq %rbx, %rdx
shrq $2, %rdx
/* r15 = min(%rdx, %r15) */
cmpq %rdx, %r15
cmova %rdx, %r15
/* r15 = r15 * 5 */
leaq (%r15, %r15, 4), %r15
/* olimit = op3 + r15 */
addq %op3, %olimit
movq 8(%rsp), %rdx
movq 0(%rsp), %rbx
/* If (op3 + 20 > olimit) */
movq %op3, %rax /* rax = op3 */
cmpq %rax, %olimit /* op3 == olimit */
je .L_4X1_exit
/* If (ip1 < ip0) go to exit */
cmpq %ip0, %ip1
jb .L_4X1_exit
/* If (ip2 < ip1) go to exit */
cmpq %ip1, %ip2
jb .L_4X1_exit
/* If (ip3 < ip2) go to exit */
cmpq %ip2, %ip3
jb .L_4X1_exit
/* Reads top 11 bits from bits[n]
* Loads dt[bits[n]] into var[n]
*/
#define GET_NEXT_DELT(n) \
movq $53, %var##n; \
shrxq %var##n, %bits##n, %var##n; \
movzwl (%dtable,%var##n,2),%vard##n
/* var[n] must contain the DTable entry computed with GET_NEXT_DELT
* Moves var[n] to %rax
* bits[n] <<= var[n] & 63
* op[n][idx] = %rax >> 8
* %ah is a way to access bits [8, 16) of %rax
*/
#define DECODE_FROM_DELT(n, idx) \
movq %var##n, %rax; \
shlxq %var##n, %bits##n, %bits##n; \
movb %ah, idx(%op##n)
/* Assumes GET_NEXT_DELT has been called.
* Calls DECODE_FROM_DELT then GET_NEXT_DELT
*/
#define DECODE_AND_GET_NEXT(n, idx) \
DECODE_FROM_DELT(n, idx); \
GET_NEXT_DELT(n) \
/* // ctz & nbBytes is stored in bits[n]
* // nbBits is stored in %rax
* ctz = CTZ[bits[n]]
* nbBits = ctz & 7
* nbBytes = ctz >> 3
* op[n] += 5
* ip[n] -= nbBytes
* // Note: x86-64 is little-endian ==> no bswap
* bits[n] = MEM_readST(ip[n]) | 1
* bits[n] <<= nbBits
*/
#define RELOAD_BITS(n) \
bsfq %bits##n, %bits##n; \
movq %bits##n, %rax; \
andq $7, %rax; \
shrq $3, %bits##n; \
leaq 5(%op##n), %op##n; \
subq %bits##n, %ip##n; \
movq (%ip##n), %bits##n; \
orq $1, %bits##n; \
shlx %rax, %bits##n, %bits##n
/* Store clobbered variables on the stack */
movq %olimit, 24(%rsp)
movq %ip1, 0(%rsp)
movq %ip2, 8(%rsp)
movq %ip3, 16(%rsp)
/* Call GET_NEXT_DELT for each stream */
FOR_EACH_STREAM(GET_NEXT_DELT)
.p2align 6
.L_4X1_loop_body:
/* Decode 5 symbols in each of the 4 streams (20 total)
* Must have called GET_NEXT_DELT for each stream
*/
FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 0)
FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 1)
FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 2)
FOR_EACH_STREAM_WITH_INDEX(DECODE_AND_GET_NEXT, 3)
FOR_EACH_STREAM_WITH_INDEX(DECODE_FROM_DELT, 4)
/* Load ip[1,2,3] from stack (var[] aliases them)
* ip[] is needed for RELOAD_BITS
* Each will be stored back to the stack after RELOAD
*/
movq 0(%rsp), %ip1
movq 8(%rsp), %ip2
movq 16(%rsp), %ip3
/* Reload each stream & fetch the next table entry
* to prepare for the next iteration
*/
RELOAD_BITS(0)
GET_NEXT_DELT(0)
RELOAD_BITS(1)
movq %ip1, 0(%rsp)
GET_NEXT_DELT(1)
RELOAD_BITS(2)
movq %ip2, 8(%rsp)
GET_NEXT_DELT(2)
RELOAD_BITS(3)
movq %ip3, 16(%rsp)
GET_NEXT_DELT(3)
/* If op3 < olimit: continue the loop */
cmp %op3, 24(%rsp)
ja .L_4X1_loop_body
/* Reload ip[1,2,3] from stack */
movq 0(%rsp), %ip1
movq 8(%rsp), %ip2
movq 16(%rsp), %ip3
/* Re-compute olimit */
jmp .L_4X1_compute_olimit
#undef GET_NEXT_DELT
#undef DECODE_FROM_DELT
#undef DECODE
#undef RELOAD_BITS
.L_4X1_exit:
addq $24, %rsp
/* Restore stack (oend & olimit) */
pop %rax /* olimit */
pop %rax /* oend */
pop %rax /* ilowest */
pop %rax /* arg */
/* Save ip / op / bits */
movq %ip0, 0(%rax)
movq %ip1, 8(%rax)
movq %ip2, 16(%rax)
movq %ip3, 24(%rax)
movq %op0, 32(%rax)
movq %op1, 40(%rax)
movq %op2, 48(%rax)
movq %op3, 56(%rax)
movq %bits0, 64(%rax)
movq %bits1, 72(%rax)
movq %bits2, 80(%rax)
movq %bits3, 88(%rax)
/* Restore registers */
pop %r15
pop %r14
pop %r13
pop %r12
pop %r11
pop %r10
pop %r9
pop %r8
pop %rdi
pop %rsi
pop %rbp
pop %rdx
pop %rcx
pop %rbx
pop %rax
ret
_HUF_decompress4X2_usingDTable_internal_fast_asm_loop:
HUF_decompress4X2_usingDTable_internal_fast_asm_loop:
ZSTD_CET_ENDBRANCH
/* Save all registers - even if they are callee saved for simplicity. */
push %rax
push %rbx
push %rcx
push %rdx
push %rbp
push %rsi
push %rdi
push %r8
push %r9
push %r10
push %r11
push %r12
push %r13
push %r14
push %r15
/* Read HUF_DecompressAsmArgs* args from %rax */
#if defined(_WIN32)
movq %rcx, %rax
#else
movq %rdi, %rax
#endif
movq 0(%rax), %ip0
movq 8(%rax), %ip1
movq 16(%rax), %ip2
movq 24(%rax), %ip3
movq 32(%rax), %op0
movq 40(%rax), %op1
movq 48(%rax), %op2
movq 56(%rax), %op3
movq 64(%rax), %bits0
movq 72(%rax), %bits1
movq 80(%rax), %bits2
movq 88(%rax), %bits3
movq 96(%rax), %dtable
push %rax /* argument */
push %rax /* olimit */
push 104(%rax) /* ilowest */
movq 112(%rax), %rax
push %rax /* oend3 */
movq %op3, %rax
push %rax /* oend2 */
movq %op2, %rax
push %rax /* oend1 */
movq %op1, %rax
push %rax /* oend0 */
/* Scratch space */
subq $8, %rsp
.L_4X2_compute_olimit:
/* Computes how many iterations we can do safely
* %r15, %rax may be clobbered
* rdx must be saved
* op[1,2,3,4] & ip0 mustn't be clobbered
*/
movq %rdx, 0(%rsp)
/* We can consume up to 7 input bytes each iteration. */
movq %ip0, %rax /* rax = ip0 */
movq 40(%rsp), %rdx /* rdx = ilowest */
subq %rdx, %rax /* rax = ip0 - ilowest */
movq %rax, %r15 /* r15 = ip0 - ilowest */
/* rdx = rax / 7 */
movabsq $2635249153387078803, %rdx
mulq %rdx
subq %rdx, %r15
shrq %r15
addq %r15, %rdx
shrq $2, %rdx
/* r15 = (ip0 - ilowest) / 7 */
movq %rdx, %r15
/* r15 = min(r15, min(oend0 - op0, oend1 - op1, oend2 - op2, oend3 - op3) / 10) */
movq 8(%rsp), %rax /* rax = oend0 */
subq %op0, %rax /* rax = oend0 - op0 */
movq 16(%rsp), %rdx /* rdx = oend1 */
subq %op1, %rdx /* rdx = oend1 - op1 */
cmpq %rax, %rdx
cmova %rax, %rdx /* rdx = min(%rdx, %rax) */
movq 24(%rsp), %rax /* rax = oend2 */
subq %op2, %rax /* rax = oend2 - op2 */
cmpq %rax, %rdx
cmova %rax, %rdx /* rdx = min(%rdx, %rax) */
movq 32(%rsp), %rax /* rax = oend3 */
subq %op3, %rax /* rax = oend3 - op3 */
cmpq %rax, %rdx
cmova %rax, %rdx /* rdx = min(%rdx, %rax) */
movabsq $-3689348814741910323, %rax
mulq %rdx
shrq $3, %rdx /* rdx = rdx / 10 */
/* r15 = min(%rdx, %r15) */
cmpq %rdx, %r15
cmova %rdx, %r15
/* olimit = op3 + 5 * r15 */
movq %r15, %rax
leaq (%op3, %rax, 4), %olimit
addq %rax, %olimit
movq 0(%rsp), %rdx
/* If (op3 + 10 > olimit) */
movq %op3, %rax /* rax = op3 */
cmpq %rax, %olimit /* op3 == olimit */
je .L_4X2_exit
/* If (ip1 < ip0) go to exit */
cmpq %ip0, %ip1
jb .L_4X2_exit
/* If (ip2 < ip1) go to exit */
cmpq %ip1, %ip2
jb .L_4X2_exit
/* If (ip3 < ip2) go to exit */
cmpq %ip2, %ip3
jb .L_4X2_exit
#define DECODE(n, idx) \
movq %bits##n, %rax; \
shrq $53, %rax; \
movzwl 0(%dtable,%rax,4),%r8d; \
movzbl 2(%dtable,%rax,4),%r15d; \
movzbl 3(%dtable,%rax,4),%eax; \
movw %r8w, (%op##n); \
shlxq %r15, %bits##n, %bits##n; \
addq %rax, %op##n
#define RELOAD_BITS(n) \
bsfq %bits##n, %bits##n; \
movq %bits##n, %rax; \
shrq $3, %bits##n; \
andq $7, %rax; \
subq %bits##n, %ip##n; \
movq (%ip##n), %bits##n; \
orq $1, %bits##n; \
shlxq %rax, %bits##n, %bits##n
movq %olimit, 48(%rsp)
.p2align 6
.L_4X2_loop_body:
/* We clobber r8, so store it on the stack */
movq %r8, 0(%rsp)
/* Decode 5 symbols from each of the 4 streams (20 symbols total). */
FOR_EACH_STREAM_WITH_INDEX(DECODE, 0)
FOR_EACH_STREAM_WITH_INDEX(DECODE, 1)
FOR_EACH_STREAM_WITH_INDEX(DECODE, 2)
FOR_EACH_STREAM_WITH_INDEX(DECODE, 3)
FOR_EACH_STREAM_WITH_INDEX(DECODE, 4)
/* Reload r8 */
movq 0(%rsp), %r8
FOR_EACH_STREAM(RELOAD_BITS)
cmp %op3, 48(%rsp)
ja .L_4X2_loop_body
jmp .L_4X2_compute_olimit
#undef DECODE
#undef RELOAD_BITS
.L_4X2_exit:
addq $8, %rsp
/* Restore stack (oend & olimit) */
pop %rax /* oend0 */
pop %rax /* oend1 */
pop %rax /* oend2 */
pop %rax /* oend3 */
pop %rax /* ilowest */
pop %rax /* olimit */
pop %rax /* arg */
/* Save ip / op / bits */
movq %ip0, 0(%rax)
movq %ip1, 8(%rax)
movq %ip2, 16(%rax)
movq %ip3, 24(%rax)
movq %op0, 32(%rax)
movq %op1, 40(%rax)
movq %op2, 48(%rax)
movq %op3, 56(%rax)
movq %bits0, 64(%rax)
movq %bits1, 72(%rax)
movq %bits2, 80(%rax)
movq %bits3, 88(%rax)
/* Restore registers */
pop %r15
pop %r14
pop %r13
pop %r12
pop %r11
pop %r10
pop %r9
pop %r8
pop %rdi
pop %rsi
pop %rbp
pop %rdx
pop %rcx
pop %rbx
pop %rax
ret
#endif
|
Vtyeshe/geoai-backend
| 2,264
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86_windows_gnu.s
|
/* FIXME: this works locally but not on appveyor??!? */
/* NOTE: fastcall calling convention used on all x86 targets */
.text
.def @rust_psm_stack_direction@0
.scl 2
.type 32
.endef
.globl @rust_psm_stack_direction@0
.p2align 4
@rust_psm_stack_direction@0:
/* extern "fastcall" fn() -> u8 (%al) */
.cfi_startproc
movb $2, %al # always descending on x86_64
retl
.cfi_endproc
.def @rust_psm_stack_pointer@0
.scl 2
.type 32
.endef
.globl @rust_psm_stack_pointer@0
.p2align 4
@rust_psm_stack_pointer@0:
/* extern "fastcall" fn() -> *mut u8 (%rax) */
.cfi_startproc
leal 4(%esp), %eax
retl
.cfi_endproc
.def @rust_psm_replace_stack@16
.scl 2
.type 32
.endef
.globl @rust_psm_replace_stack@16
.p2align 4
@rust_psm_replace_stack@16:
/* extern "fastcall" fn(%ecx: usize, %edx: extern "fastcall" fn(usize), 4(%esp): *mut u8) */
.cfi_startproc
/*
All we gotta do is set the stack pointer to 4(%esp) & tail-call the callback in %edx
Note, that the callee expects the stack to be offset by 4 bytes (normally, a return address
would be store there) off the required stack alignment on entry. To offset the stack in such a
way we use the `calll` instruction, however it would also be possible to to use plain `jmpl` but
would require to adjust the stack manually, which cannot be easily done, because the stack
pointer argument is already stored in memory.
*/
movl 8(%esp), %eax
mov %eax, %fs:0x08
movl 4(%esp), %esp
mov %esp, %fs:0x04
calll *%edx
ud2
.cfi_endproc
.def @rust_psm_on_stack@16
.scl 2
.type 32
.endef
.globl @rust_psm_on_stack@16
.p2align 4
@rust_psm_on_stack@16:
/* extern "fastcall" fn(%ecx: usize, %edx: usize, 4(%esp): extern "fastcall" fn(usize, usize), 8(%esp): *mut u8) */
.cfi_startproc
pushl %ebp
.cfi_def_cfa %esp, 8
.cfi_offset %ebp, -8
pushl %fs:0x04
.cfi_def_cfa %esp, 12
pushl %fs:0x08
.cfi_def_cfa %esp, 16
movl %esp, %ebp
.cfi_def_cfa_register %ebp
movl 24(%ebp), %eax
movl %eax, %fs:0x08
movl 20(%ebp), %esp
movl %esp, %fs:0x04
calll *16(%ebp)
movl %ebp, %esp
popl %fs:0x08
.cfi_def_cfa %esp, 12
popl %fs:0x04
.cfi_def_cfa %esp, 8
popl %ebp
.cfi_def_cfa %esp, 4
retl $12
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,963
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc32.s
|
#include "psm.h"
/* FIXME: this probably does not cover all ABIs? Tested with sysv only, possibly works for AIX as
well?
*/
.text
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
li 3, STACK_DIRECTION_DESCENDING
blr
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
mr 3, 1
blr
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) */
.cfi_startproc
/* NOTE: perhaps add a debug-assertion for stack alignment? */
addi 5, 5, -16
mr 1, 5
mtctr 4
bctr
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) */
.cfi_startproc
mflr 0
stw 0, -24(6)
sub 6, 6, 1
addi 6, 6, -32
stwux 1, 1, 6
.cfi_def_cfa r1, 32
.cfi_offset r1, -32
.cfi_offset lr, -24
mtctr 5
bctrl
lwz 0, 8(1)
mtlr 0
.cfi_restore lr
/* FIXME: after this instruction backtrace breaks until control returns to the caller
That being said compiler-generated code has the same issue, so I guess that is fine for now?
*/
lwz 1, 0(1)
.cfi_restore r1
blr
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,557
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86.s
|
#include "psm.h"
/* NOTE: fastcall calling convention used on all x86 targets */
.text
#if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios
#define GLOBL(fnname) .globl _##fnname
#define TYPE(fnname)
#define FUNCTION(fnname) _##fnname
#define SIZE(fnname,endlabel)
#else
#define GLOBL(fnname) .globl fnname
#define TYPE(fnname) .type fnname,@function
#define FUNCTION(fnname) fnname
#define SIZE(fnname,endlabel) .size fnname,endlabel-fnname
#endif
GLOBL(rust_psm_stack_direction)
.p2align 4
TYPE(rust_psm_stack_direction)
FUNCTION(rust_psm_stack_direction):
/* extern "fastcall" fn() -> u8 (%al) */
.cfi_startproc
movb $STACK_DIRECTION_DESCENDING, %al # always descending on x86_64
retl
.rust_psm_stack_direction_end:
SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end)
.cfi_endproc
GLOBL(rust_psm_stack_pointer)
.p2align 4
TYPE(rust_psm_stack_pointer)
FUNCTION(rust_psm_stack_pointer):
/* extern "fastcall" fn() -> *mut u8 (%rax) */
.cfi_startproc
leal 4(%esp), %eax
retl
.rust_psm_stack_pointer_end:
SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end)
.cfi_endproc
GLOBL(rust_psm_replace_stack)
.p2align 4
TYPE(rust_psm_replace_stack)
FUNCTION(rust_psm_replace_stack):
/* extern "fastcall" fn(%ecx: usize, %edx: extern "fastcall" fn(usize), 4(%esp): *mut u8) */
.cfi_startproc
/*
All we gotta do is set the stack pointer to 4(%esp) & tail-call the callback in %edx
Note, that the callee expects the stack to be offset by 4 bytes (normally, a return address
would be store there) off the required stack alignment on entry. To offset the stack in such a
way we use the `calll` instruction, however it would also be possible to to use plain `jmpl` but
would require to adjust the stack manually, which cannot be easily done, because the stack
pointer argument is already stored in memory.
*/
movl 4(%esp), %esp
calll *%edx
ud2
.rust_psm_replace_stack_end:
SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end)
.cfi_endproc
GLOBL(rust_psm_on_stack)
.p2align 4
TYPE(rust_psm_on_stack)
FUNCTION(rust_psm_on_stack):
/* extern "fastcall" fn(%ecx: usize, %edx: usize, 4(%esp): extern "fastcall" fn(usize, usize), 8(%esp): *mut u8) */
.cfi_startproc
pushl %ebp
.cfi_def_cfa %esp, 8
.cfi_offset %ebp, -8
movl %esp, %ebp
.cfi_def_cfa_register %ebp
movl 12(%ebp), %esp
calll *8(%ebp)
movl %ebp, %esp
popl %ebp
.cfi_def_cfa %esp, 4
retl $8
.rust_psm_on_stack_end:
SIZE(rust_psm_on_stack,.rust_psm_on_stack_end)
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,235
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86_64.s
|
#include "psm.h"
/* NOTE: sysv64 calling convention is used on all x86_64 targets, including Windows! */
.text
#if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios
#define GLOBL(fnname) .globl _##fnname
#define TYPE(fnname)
#define FUNCTION(fnname) _##fnname
#define SIZE(fnname,endlabel)
#else
#define GLOBL(fnname) .globl fnname
#define TYPE(fnname) .type fnname,@function
#define FUNCTION(fnname) fnname
#define SIZE(fnname,endlabel) .size fnname,endlabel-fnname
#endif
GLOBL(rust_psm_stack_direction)
.p2align 4
TYPE(rust_psm_stack_direction)
FUNCTION(rust_psm_stack_direction):
/* extern "sysv64" fn() -> u8 (%al) */
.cfi_startproc
movb $STACK_DIRECTION_DESCENDING, %al # always descending on x86_64
retq
.rust_psm_stack_direction_end:
SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end)
.cfi_endproc
GLOBL(rust_psm_stack_pointer)
.p2align 4
TYPE(rust_psm_stack_pointer)
FUNCTION(rust_psm_stack_pointer):
/* extern "sysv64" fn() -> *mut u8 (%rax) */
.cfi_startproc
leaq 8(%rsp), %rax
retq
.rust_psm_stack_pointer_end:
SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end)
.cfi_endproc
GLOBL(rust_psm_replace_stack)
.p2align 4
TYPE(rust_psm_replace_stack)
FUNCTION(rust_psm_replace_stack):
/* extern "sysv64" fn(%rdi: usize, %rsi: extern "sysv64" fn(usize), %rdx: *mut u8) */
.cfi_startproc
/*
All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi.
8-byte offset necessary to account for the "return" pointer that would otherwise be placed onto
stack with a regular call
*/
leaq -8(%rdx), %rsp
jmpq *%rsi
.rust_psm_replace_stack_end:
SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end)
.cfi_endproc
GLOBL(rust_psm_on_stack)
.p2align 4
TYPE(rust_psm_on_stack)
FUNCTION(rust_psm_on_stack):
/* extern "sysv64" fn(%rdi: usize, %rsi: usize, %rdx: extern "sysv64" fn(usize, usize), %rcx: *mut u8) */
.cfi_startproc
pushq %rbp
.cfi_def_cfa %rsp, 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rcx, %rsp
callq *%rdx
movq %rbp, %rsp
popq %rbp
.cfi_def_cfa %rsp, 8
retq
.rust_psm_on_stack_end:
SIZE(rust_psm_on_stack,.rust_psm_on_stack_end)
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,722
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/sparc_sysv.s
|
#include "psm.h"
/* FIXME: this ABI has definitely not been verified at all */
.text
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
jmpl %o7 + 8, %g0
mov STACK_DIRECTION_DESCENDING, %o0
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
jmpl %o7 + 8, %g0
mov %o6, %o0
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(%i0: usize, %i1: extern "C" fn(usize), %i2: *mut u8) */
.cfi_startproc
.cfi_def_cfa 0, 0
.cfi_return_column 0
jmpl %o1, %g0
/* WEIRD: Why is the LSB set for the %sp and %fp on SPARC?? */
add %o2, -0x3ff, %o6
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(%i0: usize, %i1: usize, %i2: extern "C" fn(usize, usize), %i3: *mut u8) */
.cfi_startproc
save %o3, -0x43f, %o6
.cfi_def_cfa_register %fp
.cfi_window_save
.cfi_register %r15, %r31
mov %i1, %o1
jmpl %i2, %o7
mov %i0, %o0
ret
restore
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,938
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/sparc64.s
|
#include "psm.h"
.text
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
jmpl %o7 + 8, %g0
mov STACK_DIRECTION_DESCENDING, %o0
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
jmpl %o7 + 8, %g0
mov %o6, %o0
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(%i0: usize, %i1: extern "C" fn(usize), %i2: *mut u8) */
.cfi_startproc
.cfi_def_cfa 0, 0
.cfi_return_column 0
jmpl %o1, %g0
/* WEIRD: Why is the LSB set for the %sp and %fp on SPARC?? */
add %o2, -0x7ff, %o6
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(%i0: usize, %i1: usize, %i2: extern "C" fn(usize, usize), %i3: *mut u8) */
.cfi_startproc
/* The fact that locals and saved register windows are offset by 2kB is
very nasty property of SPARC architecture and ABI. In this case it forces us to slice off
2kB of the stack space outright for no good reason other than adapting to a botched design.
*/
save %o3, -0x87f, %o6
.cfi_def_cfa_register %fp
.cfi_window_save
.cfi_register %r15, %r31
mov %i1, %o1
jmpl %i2, %o7
mov %i0, %o0
ret
restore
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,569
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/riscv64.s
|
#include "psm.h"
.text
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
li x10, STACK_DIRECTION_DESCENDING
jr x1
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
add x10, x2, x0
jr x1
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(x10: usize, x11: extern "C" fn(usize), x12: *mut u8) */
.cfi_startproc
add x2, x12, x0
jr x11
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(x10: usize, x11: usize, x12: extern "C" fn(usize, usize), x13: *mut u8) */
.cfi_startproc
sd x1, -8(x13)
sd x2, -16(x13)
addi x2, x13, -16
.cfi_def_cfa x2, 16
.cfi_offset x1, -8
.cfi_offset x2, -16
jalr x1, x12, 0
ld x1, 8(x2)
.cfi_restore x1
ld x2, 0(x2)
.cfi_restore x2
jr x1
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,568
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/loongarch64.s
|
#include "psm.h"
.text
.globl rust_psm_stack_direction
.align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
li.w $r4, STACK_DIRECTION_DESCENDING
jr $r1
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
move $r4, $r3
jr $r1
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(r4: usize, r5: extern "C" fn(usize), r6: *mut u8) */
.cfi_startproc
move $r3, $r6
jr $r5
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(r4: usize, r5: usize, r6: extern "C" fn(usize, usize), r7: *mut u8) */
.cfi_startproc
st.d $r1, $r7, -8
st.d $r3, $r7, -16
addi.d $r3, $r7, -16
.cfi_def_cfa 3, 16
.cfi_offset 1, -8
.cfi_offset 3, -16
jirl $r1, $r6, 0
ld.d $r1, $r3, 8
.cfi_restore 1
ld.d $r3, $r3, 0
.cfi_restore 3
jr $r1
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,137
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/aarch_aapcs64.s
|
#include "psm.h"
.text
#if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios
#define GLOBL(fnname) .globl _##fnname
#define TYPE(fnname)
#define FUNCTION(fnname) _##fnname
#define SIZE(fnname,endlabel)
#elif CFG_TARGET_OS_windows
#define GLOBL(fnname) .globl fnname
#define TYPE(fnname)
#define FUNCTION(fnname) fnname
#define SIZE(fnname,endlabel)
#else
#define GLOBL(fnname) .globl fnname
#define TYPE(fnname) .type fnname,@function
#define FUNCTION(fnname) fnname
#define SIZE(fnname,endlabel) .size fnname,endlabel-fnname
#endif
GLOBL(rust_psm_stack_direction)
.p2align 2
TYPE(rust_psm_stack_direction)
FUNCTION(rust_psm_stack_direction):
/* extern "C" fn() -> u8 */
.cfi_startproc
orr w0, wzr, #STACK_DIRECTION_DESCENDING
ret
.rust_psm_stack_direction_end:
SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end)
.cfi_endproc
GLOBL(rust_psm_stack_pointer)
.p2align 2
TYPE(rust_psm_stack_pointer)
FUNCTION(rust_psm_stack_pointer):
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
mov x0, sp
ret
.rust_psm_stack_pointer_end:
SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end)
.cfi_endproc
GLOBL(rust_psm_replace_stack)
.p2align 2
TYPE(rust_psm_replace_stack)
FUNCTION(rust_psm_replace_stack):
/* extern "C" fn(r0: usize, r1: extern "C" fn(usize), r2: *mut u8) */
.cfi_startproc
/* All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi */
mov sp, x2
br x1
.rust_psm_replace_stack_end:
SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end)
.cfi_endproc
GLOBL(rust_psm_on_stack)
.p2align 2
TYPE(rust_psm_on_stack)
FUNCTION(rust_psm_on_stack):
/* extern "C" fn(r0: usize, r1: usize, r2: extern "C" fn(usize, usize), r3: *mut u8) */
.cfi_startproc
stp x29, x30, [sp, #-16]!
.cfi_def_cfa sp, 16
mov x29, sp
.cfi_def_cfa x29, 16
.cfi_offset x29, -16
.cfi_offset x30, -8
mov sp, x3
blr x2
mov sp, x29
.cfi_def_cfa sp, 16
ldp x29, x30, [sp], #16
.cfi_def_cfa sp, 0
.cfi_restore x29
.cfi_restore x30
ret
.rust_psm_on_stack_end:
SIZE(rust_psm_on_stack,.rust_psm_on_stack_end)
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,149
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/mips_eabi.s
|
/*
Not only MIPS has 20 different ABIs... nobody tells anybody what specific variant of which ABI is
used where.
This is an "EABI" implementation based on the following page:
http://www.cygwin.com/ml/binutils/2003-06/msg00436.html
*/
#include "psm.h"
.set noreorder /* we’ll manage the delay slots on our own, thanks! */
.text
.abicalls
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
.ent rust_psm_stack_direction
/* extern "C" fn() -> u8 */
rust_psm_stack_direction:
.cfi_startproc
jr $31
addiu $2, $zero, STACK_DIRECTION_DESCENDING
.end rust_psm_stack_direction
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
.ent rust_psm_stack_pointer
/* extern "C" fn() -> *mut u8 */
rust_psm_stack_pointer:
.cfi_startproc
jr $31
move $2, $29
.end rust_psm_stack_pointer
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
.ent rust_psm_replace_stack
/* extern "C" fn(r4: usize, r5: extern "C" fn(usize), r6: *mut u8) */
rust_psm_replace_stack:
.cfi_startproc
move $25, $5
jr $5
move $29, $6
.end rust_psm_replace_stack
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
.ent rust_psm_on_stack
/* extern "C" fn(r4: usize, r5: usize, r6: extern "C" fn(usize), r7: *mut u8) */
rust_psm_on_stack:
.cfi_startproc
sw $29, -4($7)
sw $31, -8($7)
.cfi_def_cfa 7, 0
.cfi_offset 31, -8
.cfi_offset 29, -4
move $25, $6
jalr $31, $6
addiu $29, $7, -8
.cfi_def_cfa 29, 8
lw $31, 0($29)
.cfi_restore 31
lw $29, 4($29)
.cfi_restore 29
jr $31
nop
.end rust_psm_on_stack
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,694
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/wasm32.s
|
#include "psm.h"
# Note that this function is not compiled when this package is uploaded to
# crates.io, this source is only here as a reference for how the corresponding
# wasm32.o was generated. This file can be compiled with:
#
# cpp psm/src/arch/wasm32.s | llvm-mc -o psm/src/arch/wasm32.o --arch=wasm32 -filetype=obj
#
# where you'll want to ensure that `llvm-mc` is from a relatively recent
# version of LLVM.
.globaltype __stack_pointer, i32
.globl rust_psm_stack_direction
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
.functype rust_psm_stack_direction () -> (i32)
i32.const STACK_DIRECTION_DESCENDING
end_function
.globl rust_psm_stack_pointer
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
.functype rust_psm_stack_pointer () -> (i32)
global.get __stack_pointer
end_function
.globl rust_psm_on_stack
.type rust_psm_on_stack,@function
rust_psm_on_stack:
.functype rust_psm_on_stack (i32, i32, i32, i32) -> ()
# get our new stack argument, then save the old stack
# pointer into that local
local.get 3
global.get __stack_pointer
local.set 3
global.set __stack_pointer
# Call our indirect function specified
local.get 0
local.get 1
local.get 2
call_indirect (i32, i32) -> ()
# restore the stack pointer before returning
local.get 3
global.set __stack_pointer
end_function
.globl rust_psm_replace_stack
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
.functype rust_psm_replace_stack (i32, i32, i32) -> ()
local.get 2
global.set __stack_pointer
local.get 0
local.get 1
call_indirect (i32) -> ()
unreachable
end_function
|
Vtyeshe/geoai-backend
| 2,080
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/zseries_linux.s
|
/* Implementation of stack swtiching routines for zSeries LINUX ABI.
This ABI is used by the s390x-unknown-linux-gnu target.
Documents used:
* LINUX for zSeries: ELF Application Binary Interface Supplement (1st ed., 2001) (LNUX-1107-01)
* z/Architecture: Principles of Operation (4th ed., 2004) (SA22-7832-03)
*/
#include "psm.h"
.text
.globl rust_psm_stack_direction
.p2align 4
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
lghi %r2, STACK_DIRECTION_DESCENDING
br %r14
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 4
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
la %r2, 0(%r15)
br %r14
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 4
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(r2: usize, r3: extern "C" fn(usize), r4: *mut u8) */
.cfi_startproc
/* FIXME: backtrace does not terminate cleanly for some reason */
lay %r15, -160(%r4)
/* FIXME: this is `basr` instead of `br` purely to remove the backtrace link to the caller */
basr %r14, %r3
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 4
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(r2: usize, r3: usize, r4: extern "C" fn(usize, usize), r5: *mut u8) */
.cfi_startproc
stmg %r14, %r15, -16(%r5)
lay %r15, -176(%r5)
.cfi_def_cfa %r15, 176
.cfi_offset %r14, -16
.cfi_offset %r15, -8
basr %r14, %r4
lmg %r14, %r15, 160(%r15)
.cfi_restore %r14
.cfi_restore %r15
br %r14
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,144
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/mips64_eabi.s
|
/*
Not only MIPS has 20 different ABIs... nobody tells anybody what specific variant of which ABI is
used where.
This is an "EABI" implementation based on the following page:
http://www.cygwin.com/ml/binutils/2003-06/msg00436.html
*/
#include "psm.h"
.set noreorder /* we’ll manage the delay slots on our own, thanks! */
.text
.globl rust_psm_stack_direction
.p2align 3
.type rust_psm_stack_direction,@function
.ent rust_psm_stack_direction
/* extern "C" fn() -> u8 */
rust_psm_stack_direction:
.cfi_startproc
jr $31
addiu $2, $zero, STACK_DIRECTION_DESCENDING
.end rust_psm_stack_direction
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 3
.type rust_psm_stack_pointer,@function
.ent rust_psm_stack_pointer
/* extern "C" fn() -> *mut u8 */
rust_psm_stack_pointer:
.cfi_startproc
jr $31
move $2, $29
.end rust_psm_stack_pointer
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 3
.type rust_psm_replace_stack,@function
.ent rust_psm_replace_stack
/* extern "C" fn(r4: usize, r5: extern "C" fn(usize), r6: *mut u8) */
rust_psm_replace_stack:
.cfi_startproc
move $25, $5
jr $5
move $29, $6
.end rust_psm_replace_stack
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 3
.type rust_psm_on_stack,@function
.ent rust_psm_on_stack
/* extern "C" fn(r4: usize, r5: usize, r6: extern "C" fn(usize), r7: *mut u8) */
rust_psm_on_stack:
.cfi_startproc
sd $29, -8($7)
sd $31, -16($7)
.cfi_def_cfa 7, 0
.cfi_offset 31, -16
.cfi_offset 29, -8
move $25, $6
jalr $31, $6
daddiu $29, $7, -16
.cfi_def_cfa 29, 16
ld $31, 0($29)
.cfi_restore 31
ld $29, 8($29)
.cfi_restore 29
jr $31
nop
.end rust_psm_on_stack
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 1,571
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/riscv.s
|
#include "psm.h"
.text
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
li x10, STACK_DIRECTION_DESCENDING
jr x1
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
add x10, x2, x0
jr x1
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(x10: usize, x11: extern "C" fn(usize), x12: *mut u8) */
.cfi_startproc
add x2, x12, x0
jr x11
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(x10: usize, x11: usize, x12: extern "C" fn(usize, usize), x13: *mut u8) */
.cfi_startproc
sw x1, -12(x13)
sw x2, -16(x13)
addi x2, x13, -16
.cfi_def_cfa x2, 16
.cfi_offset x1, -12
.cfi_offset x2, -16
jalr x1, x12, 0
lw x1, 4(x2)
.cfi_restore x1
lw x2, 0(x2)
.cfi_restore x2
jr x1
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,045
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc64_openpower.s
|
/* Implementation of stack swtiching routines for OpenPOWER 64-bit ELF ABI
The specification can be found at
http://openpowerfoundation.org/wp-content/uploads/resources/leabi/content/ch_preface.html
This ABI is usually used by the ppc64le targets.
*/
#include "psm.h"
.text
.abiversion 2
.globl rust_psm_stack_direction
.p2align 4
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
li 3, STACK_DIRECTION_DESCENDING
blr
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 4
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
mr 3, 1
blr
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 4
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) */
.cfi_startproc
addi 5, 5, -32
mtctr 4
mr 12, 4
mr 1, 5
bctr
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 4
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) */
.cfi_startproc
mflr 0
std 0, -8(6)
std 2, -24(6)
sub 6, 6, 1
addi 6, 6, -48
stdux 1, 1, 6
.cfi_def_cfa r1, 48
.cfi_offset r1, -48
.cfi_offset r2, -24
.cfi_offset lr, -8
mr 12, 5
mtctr 5
bctrl
ld 2, 24(1)
.cfi_restore r2
ld 0, 40(1)
mtlr 0
.cfi_restore lr
/* FIXME: after this instructin backtrace breaks until control returns to the caller */
ld 1, 0(1)
blr
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 2,299
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/arm_aapcs.s
|
#include "psm.h"
.text
.syntax unified
#if CFG_TARGET_OS_darwin || CFG_TARGET_OS_macos || CFG_TARGET_OS_ios
#define GLOBL(fnname) .globl _##fnname
#define THUMBTYPE(fnname) .thumb_func _##fnname
#define FUNCTION(fnname) _##fnname
#define THUMBFN .code 16
#define SIZE(fnname,endlabel)
#define FNSTART
#define CANTUNWIND
#define FNEND
#else
#define GLOBL(fnname) .globl fnname
#define THUMBTYPE(fnname) .type fnname,%function
#define FUNCTION(fnname) fnname
#define THUMBFN .code 16
#define SIZE(fnname,endlabel) .size fnname,endlabel-fnname
#define FNSTART .fnstart
#define CANTUNWIND .cantunwind
#define FNEND .fnend
#endif
GLOBL(rust_psm_stack_direction)
.p2align 2
THUMBTYPE(rust_psm_stack_direction)
THUMBFN
FUNCTION(rust_psm_stack_direction):
/* extern "C" fn() -> u8 */
FNSTART
.cfi_startproc
/* movs to support Thumb-1 */
movs r0, #STACK_DIRECTION_DESCENDING
bx lr
.rust_psm_stack_direction_end:
SIZE(rust_psm_stack_direction,.rust_psm_stack_direction_end)
.cfi_endproc
CANTUNWIND
FNEND
GLOBL(rust_psm_stack_pointer)
.p2align 2
THUMBTYPE(rust_psm_stack_pointer)
THUMBFN
FUNCTION(rust_psm_stack_pointer):
/* extern "C" fn() -> *mut u8 */
FNSTART
.cfi_startproc
mov r0, sp
bx lr
.rust_psm_stack_pointer_end:
SIZE(rust_psm_stack_pointer,.rust_psm_stack_pointer_end)
.cfi_endproc
CANTUNWIND
FNEND
GLOBL(rust_psm_replace_stack)
.p2align 2
THUMBTYPE(rust_psm_replace_stack)
THUMBFN
FUNCTION(rust_psm_replace_stack):
/* extern "C" fn(r0: usize, r1: extern "C" fn(usize), r2: *mut u8) */
FNSTART
.cfi_startproc
/* All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi */
mov sp, r2
bx r1
.rust_psm_replace_stack_end:
SIZE(rust_psm_replace_stack,.rust_psm_replace_stack_end)
.cfi_endproc
CANTUNWIND
FNEND
GLOBL(rust_psm_on_stack)
.p2align 2
THUMBTYPE(rust_psm_on_stack)
THUMBFN
FUNCTION(rust_psm_on_stack):
/* extern "C" fn(r0: usize, r1: usize, r2: extern "C" fn(usize, usize), r3: *mut u8) */
FNSTART
.cfi_startproc
push {r4, lr}
.cfi_def_cfa_offset 8
mov r4, sp
.cfi_def_cfa_register r4
.cfi_offset lr, -4
.cfi_offset r4, -8
mov sp, r3
blx r2
mov sp, r4
.cfi_restore sp
pop {r4, pc}
.rust_psm_on_stack_end:
SIZE(rust_psm_on_stack,.rust_psm_on_stack_end)
.cfi_endproc
CANTUNWIND
FNEND
|
Vtyeshe/geoai-backend
| 2,541
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc64.s
|
/* Implementation of the AIX-like PowerPC ABI. Seems to be used by the big-endian PowerPC targets.
The following references were used during the implementation of this code:
https://www.ibm.com/support/knowledgecenter/en/ssw_aix_72/com.ibm.aix.alangref/idalangref_rntime_stack.htm
https://www.ibm.com/support/knowledgecenter/en/ssw_aix_72/com.ibm.aix.alangref/idalangref_reg_use_conv.htm
https://www.ibm.com/developerworks/library/l-powasm4/index.html
*/
#include "psm.h"
.text
.globl rust_psm_stack_direction
.p2align 2
.type rust_psm_stack_direction,@function
rust_psm_stack_direction:
/* extern "C" fn() -> u8 */
.cfi_startproc
li 3, STACK_DIRECTION_DESCENDING
blr
.rust_psm_stack_direction_end:
.size rust_psm_stack_direction,.rust_psm_stack_direction_end-rust_psm_stack_direction
.cfi_endproc
.globl rust_psm_stack_pointer
.p2align 2
.type rust_psm_stack_pointer,@function
rust_psm_stack_pointer:
/* extern "C" fn() -> *mut u8 */
.cfi_startproc
mr 3, 1
blr
.rust_psm_stack_pointer_end:
.size rust_psm_stack_pointer,.rust_psm_stack_pointer_end-rust_psm_stack_pointer
.cfi_endproc
.globl rust_psm_replace_stack
.p2align 2
.type rust_psm_replace_stack,@function
rust_psm_replace_stack:
/* extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8) */
.cfi_startproc
ld 2, 8(4)
ld 4, 0(4)
/* do not allocate the whole 112-byte sized frame, we know wont be used */
addi 5, 5, -48
mr 1, 5
mtctr 4
bctr
.rust_psm_replace_stack_end:
.size rust_psm_replace_stack,.rust_psm_replace_stack_end-rust_psm_replace_stack
.cfi_endproc
.globl rust_psm_on_stack
.p2align 2
.type rust_psm_on_stack,@function
rust_psm_on_stack:
/* extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8) */
.cfi_startproc
mflr 0
std 2, -72(6)
std 0, -8(6)
sub 6, 6, 1
addi 6, 6, -112
stdux 1, 1, 6
.cfi_def_cfa r1, 112
.cfi_offset r1, -112
.cfi_offset r2, -72
.cfi_offset lr, -8
/* load the function pointer from TOC and make the call */
ld 2, 8(5)
ld 5, 0(5)
mtctr 5
bctrl
ld 2, 40(1)
.cfi_restore r2
ld 0, 104(1)
mtlr 0
.cfi_restore lr
/* FIXME: after this instruction backtrace breaks until control returns to the caller.
That being said compiler-generated code has the same issue, so I guess that is fine for now?
*/
ld 1, 0(1)
.cfi_restore r1
blr
.rust_psm_on_stack_end:
.size rust_psm_on_stack,.rust_psm_on_stack_end-rust_psm_on_stack
.cfi_endproc
|
Vtyeshe/geoai-backend
| 3,609
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/powerpc64_aix.s
|
.csect .text[PR],2
.file "powerpc64_aix.s"
.globl rust_psm_stack_direction[DS]
.globl .rust_psm_stack_direction
.align 4
.csect rust_psm_stack_direction[DS],3
.vbyte 8, .rust_psm_stack_direction
.vbyte 8, TOC[TC0]
.vbyte 8, 0
.csect .text[PR],2
.rust_psm_stack_direction:
# extern "C" fn() -> u8
li 3, 2
blr
L..rust_psm_stack_direction_end:
# Following bytes form the traceback table on AIX.
# For specification, see https://www.ibm.com/docs/en/aix/7.2?topic=processor-traceback-tables.
# For implementation, see https://github.com/llvm/llvm-project/blob/main/llvm/lib/Target/PowerPC/PPCAsmPrinter.cpp,
# `PPCAIXAsmPrinter::emitTracebackTable`.
.vbyte 4, 0x00000000 # Traceback table begin, for unwinder to search the table.
.byte 0x00 # Version = 0
.byte 0x09 # Language = CPlusPlus, since rust is using C++-like LSDA.
.byte 0x20 # -IsGlobaLinkage, -IsOutOfLineEpilogOrPrologue
# +HasTraceBackTableOffset, -IsInternalProcedure
# -HasControlledStorage, -IsTOCless
# -IsFloatingPointPresent
# -IsFloatingPointOperationLogOrAbortEnabled
.byte 0x40 # -IsInterruptHandler, +IsFunctionNamePresent, -IsAllocaUsed
# OnConditionDirective = 0, -IsCRSaved, -IsLRSaved
.byte 0x80 # +IsBackChainStored, -IsFixup, NumOfFPRsSaved = 0
.byte 0x00 # -HasExtensionTable, -HasVectorInfo, NumOfGPRsSaved = 0
.byte 0x00 # NumberOfFixedParms = 0
.byte 0x01 # NumberOfFPParms = 0, +HasParmsOnStack
.vbyte 4, L..rust_psm_stack_direction_end-.rust_psm_stack_direction #Function size
.vbyte 2, 0x0018 # Function name len = 24
.byte "rust_psm_stack_direction" # Function Name
.globl rust_psm_stack_pointer[DS]
.globl .rust_psm_stack_pointer
.align 4
.csect rust_psm_stack_pointer[DS],3
.vbyte 8, .rust_psm_stack_pointer
.vbyte 8, TOC[TC0]
.vbyte 8, 0
.csect .text[PR],2
.rust_psm_stack_pointer:
# extern "C" fn() -> *mut u8
mr 3, 1
blr
L..rust_psm_stack_pointer_end:
.vbyte 4, 0x00000000
.byte 0x00
.byte 0x09
.byte 0x20
.byte 0x40
.byte 0x80
.byte 0x00
.byte 0x00
.byte 0x01
.vbyte 4, L..rust_psm_stack_pointer_end-.rust_psm_stack_pointer
.vbyte 2, 0x0016
.byte "rust_psm_stack_pointer"
.globl rust_psm_replace_stack[DS]
.globl .rust_psm_replace_stack
.align 4
.csect rust_psm_replace_stack[DS],3
.vbyte 8, .rust_psm_replace_stack
.vbyte 8, TOC[TC0]
.vbyte 8, 0
.csect .text[PR],2
.rust_psm_replace_stack:
# extern "C" fn(3: usize, 4: extern "C" fn(usize), 5: *mut u8)
# Load the function pointer and toc pointer from TOC and make the call.
ld 2, 8(4)
ld 4, 0(4)
addi 5, 5, -48
mr 1, 5
mtctr 4
bctr
L..rust_psm_replace_stack_end:
.vbyte 4, 0x00000000
.byte 0x00
.byte 0x09
.byte 0x20
.byte 0x40
.byte 0x80
.byte 0x00
.byte 0x03
.byte 0x01
.vbyte 4, 0x00000000 # Parameter type = i, i, i
.vbyte 4, L..rust_psm_replace_stack_end-.rust_psm_replace_stack
.vbyte 2, 0x0016
.byte "rust_psm_replace_stack"
.globl rust_psm_on_stack[DS]
.globl .rust_psm_on_stack
.align 4
.csect rust_psm_on_stack[DS],3
.vbyte 8, .rust_psm_on_stack
.vbyte 8, TOC[TC0]
.vbyte 8, 0
.csect .text[PR],2
.rust_psm_on_stack:
# extern "C" fn(3: usize, 4: usize, 5: extern "C" fn(usize, usize), 6: *mut u8)
mflr 0
std 2, -72(6)
std 0, -8(6)
sub 6, 6, 1
addi 6, 6, -112
stdux 1, 1, 6
ld 2, 8(5)
ld 5, 0(5)
mtctr 5
bctrl
ld 2, 40(1)
ld 0, 104(1)
mtlr 0
ld 1, 0(1)
blr
L..rust_psm_on_stack_end:
.vbyte 4, 0x00000000
.byte 0x00
.byte 0x09
.byte 0x20
.byte 0x41
.byte 0x80
.byte 0x00
.byte 0x04
.byte 0x01
.vbyte 4, 0x00000000 # Parameter type = i, i, i, i
.vbyte 4, L..rust_psm_on_stack_end-.rust_psm_on_stack
.vbyte 2, 0x0011
.byte "rust_psm_on_stack"
.toc
|
Vtyeshe/geoai-backend
| 2,218
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/psm-0.1.21/src/arch/x86_64_windows_gnu.s
|
.text
.def rust_psm_stack_direction
.scl 2
.type 32
.endef
.globl rust_psm_stack_direction
.p2align 4
rust_psm_stack_direction:
/* extern "sysv64" fn() -> u8 (%al) */
.cfi_startproc
movb $2, %al # always descending on x86_64
retq
.cfi_endproc
.def rust_psm_stack_pointer
.scl 2
.type 32
.endef
.globl rust_psm_stack_pointer
.p2align 4
rust_psm_stack_pointer:
/* extern "sysv64" fn() -> *mut u8 (%rax) */
.cfi_startproc
leaq 8(%rsp), %rax
retq
.cfi_endproc
.def rust_psm_replace_stack
.scl 2
.type 32
.endef
.globl rust_psm_replace_stack
.p2align 4
rust_psm_replace_stack:
/* extern "sysv64" fn(%rdi: usize, %rsi: extern "sysv64" fn(usize), %rdx: *mut u8, %rcx: *mut u8) */
.cfi_startproc
/*
All we gotta do is set the stack pointer to %rdx & tail-call the callback in %rsi.
8-byte offset necessary to account for the "return" pointer that would otherwise be placed onto
stack with a regular call
*/
movq %gs:0x08, %rdx
movq %gs:0x10, %rcx
leaq -8(%rdx), %rsp
jmpq *%rsi
.cfi_endproc
.def rust_psm_on_stack
.scl 2
.type 32
.endef
.globl rust_psm_on_stack
.p2align 4
rust_psm_on_stack:
/*
extern "sysv64" fn(%rdi: usize, %rsi: usize,
%rdx: extern "sysv64" fn(usize, usize), %rcx: *mut u8, %r8: *mut u8)
NB: on Windows for SEH to work at all, the pointers in TIB, thread information block, need to be
fixed up. Otherwise, it seems that exception mechanism on Windows will not bother looking for
exception handlers at *all* if they happen to fall outside the are specified in TIB.
This necessitates an API difference from the usual 4-argument signature used elsewhere.
FIXME: this needs a catch-all exception handler that aborts in case somebody unwinds into here.
*/
.cfi_startproc
pushq %rbp
.cfi_def_cfa %rsp, 16
.cfi_offset %rbp, -16
pushq %gs:0x08
.cfi_def_cfa %rsp, 24
pushq %gs:0x10
.cfi_def_cfa %rsp, 32
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rcx, %gs:0x08
movq %r8, %gs:0x10
movq %rcx, %rsp
callq *%rdx
movq %rbp, %rsp
popq %gs:0x10
.cfi_def_cfa %rsp, 24
popq %gs:0x08
.cfi_def_cfa %rsp, 16
popq %rbp
.cfi_def_cfa %rsp, 8
retq
.cfi_endproc
|
Vtyeshe/geoai-backend
| 73,987
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/chacha20_poly1305_armv8-win64.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(_WIN32)
.section .rodata
.align 7
Lchacha20_consts:
.byte 'e','x','p','a','n','d',' ','3','2','-','b','y','t','e',' ','k'
Linc:
.long 1,2,3,4
Lrol8:
.byte 3,0,1,2, 7,4,5,6, 11,8,9,10, 15,12,13,14
Lclamp:
.quad 0x0FFFFFFC0FFFFFFF, 0x0FFFFFFC0FFFFFFC
.text
.def Lpoly_hash_ad_internal
.type 32
.endef
.align 6
Lpoly_hash_ad_internal:
.cfi_startproc
cbnz x4, Lpoly_hash_intro
ret
Lpoly_hash_intro:
cmp x4, #16
b.lt Lpoly_hash_ad_tail
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
sub x4, x4, #16
b Lpoly_hash_ad_internal
Lpoly_hash_ad_tail:
cbz x4, Lpoly_hash_ad_ret
eor v20.16b, v20.16b, v20.16b // Use T0 to load the AAD
sub x4, x4, #1
Lpoly_hash_tail_16_compose:
ext v20.16b, v20.16b, v20.16b, #15
ldrb w11, [x3, x4]
mov v20.b[0], w11
subs x4, x4, #1
b.ge Lpoly_hash_tail_16_compose
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
Lpoly_hash_ad_ret:
ret
.cfi_endproc
/////////////////////////////////
//
// void chacha20_poly1305_seal(uint8_t *pt, uint8_t *ct, size_t len_in, uint8_t *ad, size_t len_ad, union open_data *seal_data);
//
.globl chacha20_poly1305_seal
.def chacha20_poly1305_seal
.type 32
.endef
.align 6
chacha20_poly1305_seal:
AARCH64_SIGN_LINK_REGISTER
.cfi_startproc
stp x29, x30, [sp, #-80]!
.cfi_def_cfa_offset 80
.cfi_offset w30, -72
.cfi_offset w29, -80
mov x29, sp
// We probably could do .cfi_def_cfa w29, 80 at this point, but since
// we don't actually use the frame pointer like that, it's probably not
// worth bothering.
stp d8, d9, [sp, #16]
stp d10, d11, [sp, #32]
stp d12, d13, [sp, #48]
stp d14, d15, [sp, #64]
.cfi_offset b15, -8
.cfi_offset b14, -16
.cfi_offset b13, -24
.cfi_offset b12, -32
.cfi_offset b11, -40
.cfi_offset b10, -48
.cfi_offset b9, -56
.cfi_offset b8, -64
adrp x11, Lchacha20_consts
add x11, x11, :lo12:Lchacha20_consts
ld1 {v24.16b - v27.16b}, [x11] // Load the CONSTS, INC, ROL8 and CLAMP values
ld1 {v28.16b - v30.16b}, [x5]
mov x15, #1 // Prepare the Poly1305 state
mov x8, #0
mov x9, #0
mov x10, #0
ldr x12, [x5, #56] // The total cipher text length includes extra_in_len
add x12, x12, x2
mov v31.d[0], x4 // Store the input and aad lengths
mov v31.d[1], x12
cmp x2, #128
b.le Lseal_128 // Optimization for smaller buffers
// Initially we prepare 5 ChaCha20 blocks. Four to encrypt up to 4 blocks (256 bytes) of plaintext,
// and one for the Poly1305 R and S keys. The first four blocks (A0-A3..D0-D3) are computed vertically,
// the fifth block (A4-D4) horizontally.
ld4r {v0.4s,v1.4s,v2.4s,v3.4s}, [x11]
mov v4.16b, v24.16b
ld4r {v5.4s,v6.4s,v7.4s,v8.4s}, [x5], #16
mov v9.16b, v28.16b
ld4r {v10.4s,v11.4s,v12.4s,v13.4s}, [x5], #16
mov v14.16b, v29.16b
ld4r {v15.4s,v16.4s,v17.4s,v18.4s}, [x5]
add v15.4s, v15.4s, v25.4s
mov v19.16b, v30.16b
sub x5, x5, #32
mov x6, #10
.align 5
Lseal_init_rounds:
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
add v3.4s, v3.4s, v8.4s
add v4.4s, v4.4s, v9.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
eor v18.16b, v18.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
rev32 v18.8h, v18.8h
rev32 v19.8h, v19.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
add v13.4s, v13.4s, v18.4s
add v14.4s, v14.4s, v19.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
eor v8.16b, v8.16b, v13.16b
eor v9.16b, v9.16b, v14.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
ushr v7.4s, v8.4s, #20
sli v7.4s, v8.4s, #12
ushr v8.4s, v9.4s, #20
sli v8.4s, v9.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
add v3.4s, v3.4s, v7.4s
add v4.4s, v4.4s, v8.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
eor v18.16b, v18.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
tbl v18.16b, {v18.16b}, v26.16b
tbl v19.16b, {v19.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
add v13.4s, v13.4s, v18.4s
add v14.4s, v14.4s, v19.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
eor v7.16b, v7.16b, v13.16b
eor v8.16b, v8.16b, v14.16b
ushr v9.4s, v8.4s, #25
sli v9.4s, v8.4s, #7
ushr v8.4s, v7.4s, #25
sli v8.4s, v7.4s, #7
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v9.16b, v9.16b, v9.16b, #4
ext v14.16b, v14.16b, v14.16b, #8
ext v19.16b, v19.16b, v19.16b, #12
add v0.4s, v0.4s, v6.4s
add v1.4s, v1.4s, v7.4s
add v2.4s, v2.4s, v8.4s
add v3.4s, v3.4s, v5.4s
add v4.4s, v4.4s, v9.4s
eor v18.16b, v18.16b, v0.16b
eor v15.16b, v15.16b, v1.16b
eor v16.16b, v16.16b, v2.16b
eor v17.16b, v17.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
rev32 v18.8h, v18.8h
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
rev32 v19.8h, v19.8h
add v12.4s, v12.4s, v18.4s
add v13.4s, v13.4s, v15.4s
add v10.4s, v10.4s, v16.4s
add v11.4s, v11.4s, v17.4s
add v14.4s, v14.4s, v19.4s
eor v6.16b, v6.16b, v12.16b
eor v7.16b, v7.16b, v13.16b
eor v8.16b, v8.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v9.16b, v9.16b, v14.16b
ushr v20.4s, v6.4s, #20
sli v20.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
ushr v7.4s, v8.4s, #20
sli v7.4s, v8.4s, #12
ushr v8.4s, v5.4s, #20
sli v8.4s, v5.4s, #12
ushr v5.4s, v9.4s, #20
sli v5.4s, v9.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
add v3.4s, v3.4s, v8.4s
add v4.4s, v4.4s, v5.4s
eor v18.16b, v18.16b, v0.16b
eor v15.16b, v15.16b, v1.16b
eor v16.16b, v16.16b, v2.16b
eor v17.16b, v17.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
tbl v18.16b, {v18.16b}, v26.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
tbl v19.16b, {v19.16b}, v26.16b
add v12.4s, v12.4s, v18.4s
add v13.4s, v13.4s, v15.4s
add v10.4s, v10.4s, v16.4s
add v11.4s, v11.4s, v17.4s
add v14.4s, v14.4s, v19.4s
eor v20.16b, v20.16b, v12.16b
eor v6.16b, v6.16b, v13.16b
eor v7.16b, v7.16b, v10.16b
eor v8.16b, v8.16b, v11.16b
eor v5.16b, v5.16b, v14.16b
ushr v9.4s, v5.4s, #25
sli v9.4s, v5.4s, #7
ushr v5.4s, v8.4s, #25
sli v5.4s, v8.4s, #7
ushr v8.4s, v7.4s, #25
sli v8.4s, v7.4s, #7
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v20.4s, #25
sli v6.4s, v20.4s, #7
ext v9.16b, v9.16b, v9.16b, #12
ext v14.16b, v14.16b, v14.16b, #8
ext v19.16b, v19.16b, v19.16b, #4
subs x6, x6, #1
b.hi Lseal_init_rounds
add v15.4s, v15.4s, v25.4s
mov x11, #4
dup v20.4s, w11
add v25.4s, v25.4s, v20.4s
zip1 v20.4s, v0.4s, v1.4s
zip2 v21.4s, v0.4s, v1.4s
zip1 v22.4s, v2.4s, v3.4s
zip2 v23.4s, v2.4s, v3.4s
zip1 v0.2d, v20.2d, v22.2d
zip2 v1.2d, v20.2d, v22.2d
zip1 v2.2d, v21.2d, v23.2d
zip2 v3.2d, v21.2d, v23.2d
zip1 v20.4s, v5.4s, v6.4s
zip2 v21.4s, v5.4s, v6.4s
zip1 v22.4s, v7.4s, v8.4s
zip2 v23.4s, v7.4s, v8.4s
zip1 v5.2d, v20.2d, v22.2d
zip2 v6.2d, v20.2d, v22.2d
zip1 v7.2d, v21.2d, v23.2d
zip2 v8.2d, v21.2d, v23.2d
zip1 v20.4s, v10.4s, v11.4s
zip2 v21.4s, v10.4s, v11.4s
zip1 v22.4s, v12.4s, v13.4s
zip2 v23.4s, v12.4s, v13.4s
zip1 v10.2d, v20.2d, v22.2d
zip2 v11.2d, v20.2d, v22.2d
zip1 v12.2d, v21.2d, v23.2d
zip2 v13.2d, v21.2d, v23.2d
zip1 v20.4s, v15.4s, v16.4s
zip2 v21.4s, v15.4s, v16.4s
zip1 v22.4s, v17.4s, v18.4s
zip2 v23.4s, v17.4s, v18.4s
zip1 v15.2d, v20.2d, v22.2d
zip2 v16.2d, v20.2d, v22.2d
zip1 v17.2d, v21.2d, v23.2d
zip2 v18.2d, v21.2d, v23.2d
add v4.4s, v4.4s, v24.4s
add v9.4s, v9.4s, v28.4s
and v4.16b, v4.16b, v27.16b
add v0.4s, v0.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v15.4s, v15.4s, v30.4s
add v1.4s, v1.4s, v24.4s
add v6.4s, v6.4s, v28.4s
add v11.4s, v11.4s, v29.4s
add v16.4s, v16.4s, v30.4s
add v2.4s, v2.4s, v24.4s
add v7.4s, v7.4s, v28.4s
add v12.4s, v12.4s, v29.4s
add v17.4s, v17.4s, v30.4s
add v3.4s, v3.4s, v24.4s
add v8.4s, v8.4s, v28.4s
add v13.4s, v13.4s, v29.4s
add v18.4s, v18.4s, v30.4s
mov x16, v4.d[0] // Move the R key to GPRs
mov x17, v4.d[1]
mov v27.16b, v9.16b // Store the S key
bl Lpoly_hash_ad_internal
mov x3, x0
cmp x2, #256
b.le Lseal_tail
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v0.16b
eor v21.16b, v21.16b, v5.16b
eor v22.16b, v22.16b, v10.16b
eor v23.16b, v23.16b, v15.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v1.16b
eor v21.16b, v21.16b, v6.16b
eor v22.16b, v22.16b, v11.16b
eor v23.16b, v23.16b, v16.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v2.16b
eor v21.16b, v21.16b, v7.16b
eor v22.16b, v22.16b, v12.16b
eor v23.16b, v23.16b, v17.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v3.16b
eor v21.16b, v21.16b, v8.16b
eor v22.16b, v22.16b, v13.16b
eor v23.16b, v23.16b, v18.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #256
mov x6, #4 // In the first run of the loop we need to hash 256 bytes, therefore we hash one block for the first 4 rounds
mov x7, #6 // and two blocks for the remaining 6, for a total of (1 * 4 + 2 * 6) * 16 = 256
Lseal_main_loop:
adrp x11, Lchacha20_consts
add x11, x11, :lo12:Lchacha20_consts
ld4r {v0.4s,v1.4s,v2.4s,v3.4s}, [x11]
mov v4.16b, v24.16b
ld4r {v5.4s,v6.4s,v7.4s,v8.4s}, [x5], #16
mov v9.16b, v28.16b
ld4r {v10.4s,v11.4s,v12.4s,v13.4s}, [x5], #16
mov v14.16b, v29.16b
ld4r {v15.4s,v16.4s,v17.4s,v18.4s}, [x5]
add v15.4s, v15.4s, v25.4s
mov v19.16b, v30.16b
eor v20.16b, v20.16b, v20.16b //zero
not v21.16b, v20.16b // -1
sub v21.4s, v25.4s, v21.4s // Add +1
ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter)
add v19.4s, v19.4s, v20.4s
sub x5, x5, #32
.align 5
Lseal_main_loop_rounds:
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
add v3.4s, v3.4s, v8.4s
add v4.4s, v4.4s, v9.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
eor v18.16b, v18.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
rev32 v18.8h, v18.8h
rev32 v19.8h, v19.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
add v13.4s, v13.4s, v18.4s
add v14.4s, v14.4s, v19.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
eor v8.16b, v8.16b, v13.16b
eor v9.16b, v9.16b, v14.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
ushr v7.4s, v8.4s, #20
sli v7.4s, v8.4s, #12
ushr v8.4s, v9.4s, #20
sli v8.4s, v9.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
add v3.4s, v3.4s, v7.4s
add v4.4s, v4.4s, v8.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
eor v18.16b, v18.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
tbl v18.16b, {v18.16b}, v26.16b
tbl v19.16b, {v19.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
add v13.4s, v13.4s, v18.4s
add v14.4s, v14.4s, v19.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
eor v7.16b, v7.16b, v13.16b
eor v8.16b, v8.16b, v14.16b
ushr v9.4s, v8.4s, #25
sli v9.4s, v8.4s, #7
ushr v8.4s, v7.4s, #25
sli v8.4s, v7.4s, #7
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v9.16b, v9.16b, v9.16b, #4
ext v14.16b, v14.16b, v14.16b, #8
ext v19.16b, v19.16b, v19.16b, #12
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
add v0.4s, v0.4s, v6.4s
add v1.4s, v1.4s, v7.4s
add v2.4s, v2.4s, v8.4s
add v3.4s, v3.4s, v5.4s
add v4.4s, v4.4s, v9.4s
eor v18.16b, v18.16b, v0.16b
eor v15.16b, v15.16b, v1.16b
eor v16.16b, v16.16b, v2.16b
eor v17.16b, v17.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
rev32 v18.8h, v18.8h
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
rev32 v19.8h, v19.8h
add v12.4s, v12.4s, v18.4s
add v13.4s, v13.4s, v15.4s
add v10.4s, v10.4s, v16.4s
add v11.4s, v11.4s, v17.4s
add v14.4s, v14.4s, v19.4s
eor v6.16b, v6.16b, v12.16b
eor v7.16b, v7.16b, v13.16b
eor v8.16b, v8.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v9.16b, v9.16b, v14.16b
ushr v20.4s, v6.4s, #20
sli v20.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
ushr v7.4s, v8.4s, #20
sli v7.4s, v8.4s, #12
ushr v8.4s, v5.4s, #20
sli v8.4s, v5.4s, #12
ushr v5.4s, v9.4s, #20
sli v5.4s, v9.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
add v3.4s, v3.4s, v8.4s
add v4.4s, v4.4s, v5.4s
eor v18.16b, v18.16b, v0.16b
eor v15.16b, v15.16b, v1.16b
eor v16.16b, v16.16b, v2.16b
eor v17.16b, v17.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
tbl v18.16b, {v18.16b}, v26.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
tbl v19.16b, {v19.16b}, v26.16b
add v12.4s, v12.4s, v18.4s
add v13.4s, v13.4s, v15.4s
add v10.4s, v10.4s, v16.4s
add v11.4s, v11.4s, v17.4s
add v14.4s, v14.4s, v19.4s
eor v20.16b, v20.16b, v12.16b
eor v6.16b, v6.16b, v13.16b
eor v7.16b, v7.16b, v10.16b
eor v8.16b, v8.16b, v11.16b
eor v5.16b, v5.16b, v14.16b
ushr v9.4s, v5.4s, #25
sli v9.4s, v5.4s, #7
ushr v5.4s, v8.4s, #25
sli v5.4s, v8.4s, #7
ushr v8.4s, v7.4s, #25
sli v8.4s, v7.4s, #7
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v20.4s, #25
sli v6.4s, v20.4s, #7
ext v9.16b, v9.16b, v9.16b, #12
ext v14.16b, v14.16b, v14.16b, #8
ext v19.16b, v19.16b, v19.16b, #4
subs x6, x6, #1
b.ge Lseal_main_loop_rounds
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
subs x7, x7, #1
b.gt Lseal_main_loop_rounds
eor v20.16b, v20.16b, v20.16b //zero
not v21.16b, v20.16b // -1
sub v21.4s, v25.4s, v21.4s // Add +1
ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter)
add v19.4s, v19.4s, v20.4s
add v15.4s, v15.4s, v25.4s
mov x11, #5
dup v20.4s, w11
add v25.4s, v25.4s, v20.4s
zip1 v20.4s, v0.4s, v1.4s
zip2 v21.4s, v0.4s, v1.4s
zip1 v22.4s, v2.4s, v3.4s
zip2 v23.4s, v2.4s, v3.4s
zip1 v0.2d, v20.2d, v22.2d
zip2 v1.2d, v20.2d, v22.2d
zip1 v2.2d, v21.2d, v23.2d
zip2 v3.2d, v21.2d, v23.2d
zip1 v20.4s, v5.4s, v6.4s
zip2 v21.4s, v5.4s, v6.4s
zip1 v22.4s, v7.4s, v8.4s
zip2 v23.4s, v7.4s, v8.4s
zip1 v5.2d, v20.2d, v22.2d
zip2 v6.2d, v20.2d, v22.2d
zip1 v7.2d, v21.2d, v23.2d
zip2 v8.2d, v21.2d, v23.2d
zip1 v20.4s, v10.4s, v11.4s
zip2 v21.4s, v10.4s, v11.4s
zip1 v22.4s, v12.4s, v13.4s
zip2 v23.4s, v12.4s, v13.4s
zip1 v10.2d, v20.2d, v22.2d
zip2 v11.2d, v20.2d, v22.2d
zip1 v12.2d, v21.2d, v23.2d
zip2 v13.2d, v21.2d, v23.2d
zip1 v20.4s, v15.4s, v16.4s
zip2 v21.4s, v15.4s, v16.4s
zip1 v22.4s, v17.4s, v18.4s
zip2 v23.4s, v17.4s, v18.4s
zip1 v15.2d, v20.2d, v22.2d
zip2 v16.2d, v20.2d, v22.2d
zip1 v17.2d, v21.2d, v23.2d
zip2 v18.2d, v21.2d, v23.2d
add v0.4s, v0.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v15.4s, v15.4s, v30.4s
add v1.4s, v1.4s, v24.4s
add v6.4s, v6.4s, v28.4s
add v11.4s, v11.4s, v29.4s
add v16.4s, v16.4s, v30.4s
add v2.4s, v2.4s, v24.4s
add v7.4s, v7.4s, v28.4s
add v12.4s, v12.4s, v29.4s
add v17.4s, v17.4s, v30.4s
add v3.4s, v3.4s, v24.4s
add v8.4s, v8.4s, v28.4s
add v13.4s, v13.4s, v29.4s
add v18.4s, v18.4s, v30.4s
add v4.4s, v4.4s, v24.4s
add v9.4s, v9.4s, v28.4s
add v14.4s, v14.4s, v29.4s
add v19.4s, v19.4s, v30.4s
cmp x2, #320
b.le Lseal_tail
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v0.16b
eor v21.16b, v21.16b, v5.16b
eor v22.16b, v22.16b, v10.16b
eor v23.16b, v23.16b, v15.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v1.16b
eor v21.16b, v21.16b, v6.16b
eor v22.16b, v22.16b, v11.16b
eor v23.16b, v23.16b, v16.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v2.16b
eor v21.16b, v21.16b, v7.16b
eor v22.16b, v22.16b, v12.16b
eor v23.16b, v23.16b, v17.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v3.16b
eor v21.16b, v21.16b, v8.16b
eor v22.16b, v22.16b, v13.16b
eor v23.16b, v23.16b, v18.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v4.16b
eor v21.16b, v21.16b, v9.16b
eor v22.16b, v22.16b, v14.16b
eor v23.16b, v23.16b, v19.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #320
mov x6, #0
mov x7, #10 // For the remainder of the loop we always hash and encrypt 320 bytes per iteration
b Lseal_main_loop
Lseal_tail:
// This part of the function handles the storage and authentication of the last [0,320) bytes
// We assume A0-A4 ... D0-D4 hold at least inl (320 max) bytes of the stream data.
cmp x2, #64
b.lt Lseal_tail_64
// Store and authenticate 64B blocks per iteration
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v0.16b
eor v21.16b, v21.16b, v5.16b
eor v22.16b, v22.16b, v10.16b
eor v23.16b, v23.16b, v15.16b
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
mov x11, v21.d[0]
mov x12, v21.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
mov x11, v22.d[0]
mov x12, v22.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
mov x11, v23.d[0]
mov x12, v23.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #64
// Shift the state left by 64 bytes for the next iteration of the loop
mov v0.16b, v1.16b
mov v5.16b, v6.16b
mov v10.16b, v11.16b
mov v15.16b, v16.16b
mov v1.16b, v2.16b
mov v6.16b, v7.16b
mov v11.16b, v12.16b
mov v16.16b, v17.16b
mov v2.16b, v3.16b
mov v7.16b, v8.16b
mov v12.16b, v13.16b
mov v17.16b, v18.16b
mov v3.16b, v4.16b
mov v8.16b, v9.16b
mov v13.16b, v14.16b
mov v18.16b, v19.16b
b Lseal_tail
Lseal_tail_64:
ldp x3, x4, [x5, #48] // extra_in_len and extra_in_ptr
// Here we handle the last [0,64) bytes of plaintext
cmp x2, #16
b.lt Lseal_tail_16
// Each iteration encrypt and authenticate a 16B block
ld1 {v20.16b}, [x1], #16
eor v20.16b, v20.16b, v0.16b
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
st1 {v20.16b}, [x0], #16
sub x2, x2, #16
// Shift the state left by 16 bytes for the next iteration of the loop
mov v0.16b, v5.16b
mov v5.16b, v10.16b
mov v10.16b, v15.16b
b Lseal_tail_64
Lseal_tail_16:
// Here we handle the last [0,16) bytes of ciphertext that require a padded block
cbz x2, Lseal_hash_extra
eor v20.16b, v20.16b, v20.16b // Use T0 to load the plaintext/extra in
eor v21.16b, v21.16b, v21.16b // Use T1 to generate an AND mask that will only mask the ciphertext bytes
not v22.16b, v20.16b
mov x6, x2
add x1, x1, x2
cbz x4, Lseal_tail_16_compose // No extra data to pad with, zero padding
mov x7, #16 // We need to load some extra_in first for padding
sub x7, x7, x2
cmp x4, x7
csel x7, x4, x7, lt // Load the minimum of extra_in_len and the amount needed to fill the register
mov x12, x7
add x3, x3, x7
sub x4, x4, x7
Lseal_tail16_compose_extra_in:
ext v20.16b, v20.16b, v20.16b, #15
ldrb w11, [x3, #-1]!
mov v20.b[0], w11
subs x7, x7, #1
b.gt Lseal_tail16_compose_extra_in
add x3, x3, x12
Lseal_tail_16_compose:
ext v20.16b, v20.16b, v20.16b, #15
ldrb w11, [x1, #-1]!
mov v20.b[0], w11
ext v21.16b, v22.16b, v21.16b, #15
subs x2, x2, #1
b.gt Lseal_tail_16_compose
and v0.16b, v0.16b, v21.16b
eor v20.16b, v20.16b, v0.16b
mov v21.16b, v20.16b
Lseal_tail_16_store:
umov w11, v20.b[0]
strb w11, [x0], #1
ext v20.16b, v20.16b, v20.16b, #1
subs x6, x6, #1
b.gt Lseal_tail_16_store
// Hash in the final ct block concatenated with extra_in
mov x11, v21.d[0]
mov x12, v21.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
Lseal_hash_extra:
cbz x4, Lseal_finalize
Lseal_hash_extra_loop:
cmp x4, #16
b.lt Lseal_hash_extra_tail
ld1 {v20.16b}, [x3], #16
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
sub x4, x4, #16
b Lseal_hash_extra_loop
Lseal_hash_extra_tail:
cbz x4, Lseal_finalize
eor v20.16b, v20.16b, v20.16b // Use T0 to load the remaining extra ciphertext
add x3, x3, x4
Lseal_hash_extra_load:
ext v20.16b, v20.16b, v20.16b, #15
ldrb w11, [x3, #-1]!
mov v20.b[0], w11
subs x4, x4, #1
b.gt Lseal_hash_extra_load
// Hash in the final padded extra_in blcok
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
Lseal_finalize:
mov x11, v31.d[0]
mov x12, v31.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
// Final reduction step
sub x12, xzr, x15
orr x13, xzr, #3
subs x11, x8, #-5
sbcs x12, x9, x12
sbcs x13, x10, x13
csel x8, x11, x8, cs
csel x9, x12, x9, cs
csel x10, x13, x10, cs
mov x11, v27.d[0]
mov x12, v27.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
stp x8, x9, [x5]
ldp d8, d9, [sp, #16]
ldp d10, d11, [sp, #32]
ldp d12, d13, [sp, #48]
ldp d14, d15, [sp, #64]
.cfi_restore b15
.cfi_restore b14
.cfi_restore b13
.cfi_restore b12
.cfi_restore b11
.cfi_restore b10
.cfi_restore b9
.cfi_restore b8
ldp x29, x30, [sp], 80
.cfi_restore w29
.cfi_restore w30
.cfi_def_cfa_offset 0
AARCH64_VALIDATE_LINK_REGISTER
ret
Lseal_128:
// On some architectures preparing 5 blocks for small buffers is wasteful
eor v25.16b, v25.16b, v25.16b
mov x11, #1
mov v25.s[0], w11
mov v0.16b, v24.16b
mov v1.16b, v24.16b
mov v2.16b, v24.16b
mov v5.16b, v28.16b
mov v6.16b, v28.16b
mov v7.16b, v28.16b
mov v10.16b, v29.16b
mov v11.16b, v29.16b
mov v12.16b, v29.16b
mov v17.16b, v30.16b
add v15.4s, v17.4s, v25.4s
add v16.4s, v15.4s, v25.4s
mov x6, #10
Lseal_128_rounds:
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #4
ext v6.16b, v6.16b, v6.16b, #4
ext v7.16b, v7.16b, v7.16b, #4
ext v10.16b, v10.16b, v10.16b, #8
ext v11.16b, v11.16b, v11.16b, #8
ext v12.16b, v12.16b, v12.16b, #8
ext v15.16b, v15.16b, v15.16b, #12
ext v16.16b, v16.16b, v16.16b, #12
ext v17.16b, v17.16b, v17.16b, #12
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #12
ext v6.16b, v6.16b, v6.16b, #12
ext v7.16b, v7.16b, v7.16b, #12
ext v10.16b, v10.16b, v10.16b, #8
ext v11.16b, v11.16b, v11.16b, #8
ext v12.16b, v12.16b, v12.16b, #8
ext v15.16b, v15.16b, v15.16b, #4
ext v16.16b, v16.16b, v16.16b, #4
ext v17.16b, v17.16b, v17.16b, #4
subs x6, x6, #1
b.hi Lseal_128_rounds
add v0.4s, v0.4s, v24.4s
add v1.4s, v1.4s, v24.4s
add v2.4s, v2.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v6.4s, v6.4s, v28.4s
add v7.4s, v7.4s, v28.4s
// Only the first 32 bytes of the third block (counter = 0) are needed,
// so skip updating v12 and v17.
add v10.4s, v10.4s, v29.4s
add v11.4s, v11.4s, v29.4s
add v30.4s, v30.4s, v25.4s
add v15.4s, v15.4s, v30.4s
add v30.4s, v30.4s, v25.4s
add v16.4s, v16.4s, v30.4s
and v2.16b, v2.16b, v27.16b
mov x16, v2.d[0] // Move the R key to GPRs
mov x17, v2.d[1]
mov v27.16b, v7.16b // Store the S key
bl Lpoly_hash_ad_internal
b Lseal_tail
.cfi_endproc
/////////////////////////////////
//
// void chacha20_poly1305_open(uint8_t *pt, uint8_t *ct, size_t len_in, uint8_t *ad, size_t len_ad, union open_data *aead_data);
//
.globl chacha20_poly1305_open
.def chacha20_poly1305_open
.type 32
.endef
.align 6
chacha20_poly1305_open:
AARCH64_SIGN_LINK_REGISTER
.cfi_startproc
stp x29, x30, [sp, #-80]!
.cfi_def_cfa_offset 80
.cfi_offset w30, -72
.cfi_offset w29, -80
mov x29, sp
// We probably could do .cfi_def_cfa w29, 80 at this point, but since
// we don't actually use the frame pointer like that, it's probably not
// worth bothering.
stp d8, d9, [sp, #16]
stp d10, d11, [sp, #32]
stp d12, d13, [sp, #48]
stp d14, d15, [sp, #64]
.cfi_offset b15, -8
.cfi_offset b14, -16
.cfi_offset b13, -24
.cfi_offset b12, -32
.cfi_offset b11, -40
.cfi_offset b10, -48
.cfi_offset b9, -56
.cfi_offset b8, -64
adrp x11, Lchacha20_consts
add x11, x11, :lo12:Lchacha20_consts
ld1 {v24.16b - v27.16b}, [x11] // Load the CONSTS, INC, ROL8 and CLAMP values
ld1 {v28.16b - v30.16b}, [x5]
mov x15, #1 // Prepare the Poly1305 state
mov x8, #0
mov x9, #0
mov x10, #0
mov v31.d[0], x4 // Store the input and aad lengths
mov v31.d[1], x2
cmp x2, #128
b.le Lopen_128 // Optimization for smaller buffers
// Initially we prepare a single ChaCha20 block for the Poly1305 R and S keys
mov v0.16b, v24.16b
mov v5.16b, v28.16b
mov v10.16b, v29.16b
mov v15.16b, v30.16b
mov x6, #10
.align 5
Lopen_init_rounds:
add v0.4s, v0.4s, v5.4s
eor v15.16b, v15.16b, v0.16b
rev32 v15.8h, v15.8h
add v10.4s, v10.4s, v15.4s
eor v5.16b, v5.16b, v10.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
add v0.4s, v0.4s, v20.4s
eor v15.16b, v15.16b, v0.16b
tbl v15.16b, {v15.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
eor v20.16b, v20.16b, v10.16b
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #4
ext v10.16b, v10.16b, v10.16b, #8
ext v15.16b, v15.16b, v15.16b, #12
add v0.4s, v0.4s, v5.4s
eor v15.16b, v15.16b, v0.16b
rev32 v15.8h, v15.8h
add v10.4s, v10.4s, v15.4s
eor v5.16b, v5.16b, v10.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
add v0.4s, v0.4s, v20.4s
eor v15.16b, v15.16b, v0.16b
tbl v15.16b, {v15.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
eor v20.16b, v20.16b, v10.16b
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #12
ext v10.16b, v10.16b, v10.16b, #8
ext v15.16b, v15.16b, v15.16b, #4
subs x6, x6, #1
b.hi Lopen_init_rounds
add v0.4s, v0.4s, v24.4s
add v5.4s, v5.4s, v28.4s
and v0.16b, v0.16b, v27.16b
mov x16, v0.d[0] // Move the R key to GPRs
mov x17, v0.d[1]
mov v27.16b, v5.16b // Store the S key
bl Lpoly_hash_ad_internal
Lopen_ad_done:
mov x3, x1
// Each iteration of the loop hash 320 bytes, and prepare stream for 320 bytes
Lopen_main_loop:
cmp x2, #192
b.lt Lopen_tail
adrp x11, Lchacha20_consts
add x11, x11, :lo12:Lchacha20_consts
ld4r {v0.4s,v1.4s,v2.4s,v3.4s}, [x11]
mov v4.16b, v24.16b
ld4r {v5.4s,v6.4s,v7.4s,v8.4s}, [x5], #16
mov v9.16b, v28.16b
ld4r {v10.4s,v11.4s,v12.4s,v13.4s}, [x5], #16
mov v14.16b, v29.16b
ld4r {v15.4s,v16.4s,v17.4s,v18.4s}, [x5]
sub x5, x5, #32
add v15.4s, v15.4s, v25.4s
mov v19.16b, v30.16b
eor v20.16b, v20.16b, v20.16b //zero
not v21.16b, v20.16b // -1
sub v21.4s, v25.4s, v21.4s // Add +1
ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter)
add v19.4s, v19.4s, v20.4s
lsr x4, x2, #4 // How many whole blocks we have to hash, will always be at least 12
sub x4, x4, #10
mov x7, #10
subs x6, x7, x4
subs x6, x7, x4 // itr1 can be negative if we have more than 320 bytes to hash
csel x7, x7, x4, le // if itr1 is zero or less, itr2 should be 10 to indicate all 10 rounds are full
cbz x7, Lopen_main_loop_rounds_short
.align 5
Lopen_main_loop_rounds:
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
Lopen_main_loop_rounds_short:
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
add v3.4s, v3.4s, v8.4s
add v4.4s, v4.4s, v9.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
eor v18.16b, v18.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
rev32 v18.8h, v18.8h
rev32 v19.8h, v19.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
add v13.4s, v13.4s, v18.4s
add v14.4s, v14.4s, v19.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
eor v8.16b, v8.16b, v13.16b
eor v9.16b, v9.16b, v14.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
ushr v7.4s, v8.4s, #20
sli v7.4s, v8.4s, #12
ushr v8.4s, v9.4s, #20
sli v8.4s, v9.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
add v3.4s, v3.4s, v7.4s
add v4.4s, v4.4s, v8.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
eor v18.16b, v18.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
tbl v18.16b, {v18.16b}, v26.16b
tbl v19.16b, {v19.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
add v13.4s, v13.4s, v18.4s
add v14.4s, v14.4s, v19.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
eor v7.16b, v7.16b, v13.16b
eor v8.16b, v8.16b, v14.16b
ushr v9.4s, v8.4s, #25
sli v9.4s, v8.4s, #7
ushr v8.4s, v7.4s, #25
sli v8.4s, v7.4s, #7
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v9.16b, v9.16b, v9.16b, #4
ext v14.16b, v14.16b, v14.16b, #8
ext v19.16b, v19.16b, v19.16b, #12
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
add v0.4s, v0.4s, v6.4s
add v1.4s, v1.4s, v7.4s
add v2.4s, v2.4s, v8.4s
add v3.4s, v3.4s, v5.4s
add v4.4s, v4.4s, v9.4s
eor v18.16b, v18.16b, v0.16b
eor v15.16b, v15.16b, v1.16b
eor v16.16b, v16.16b, v2.16b
eor v17.16b, v17.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
rev32 v18.8h, v18.8h
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
rev32 v19.8h, v19.8h
add v12.4s, v12.4s, v18.4s
add v13.4s, v13.4s, v15.4s
add v10.4s, v10.4s, v16.4s
add v11.4s, v11.4s, v17.4s
add v14.4s, v14.4s, v19.4s
eor v6.16b, v6.16b, v12.16b
eor v7.16b, v7.16b, v13.16b
eor v8.16b, v8.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v9.16b, v9.16b, v14.16b
ushr v20.4s, v6.4s, #20
sli v20.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
ushr v7.4s, v8.4s, #20
sli v7.4s, v8.4s, #12
ushr v8.4s, v5.4s, #20
sli v8.4s, v5.4s, #12
ushr v5.4s, v9.4s, #20
sli v5.4s, v9.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
add v3.4s, v3.4s, v8.4s
add v4.4s, v4.4s, v5.4s
eor v18.16b, v18.16b, v0.16b
eor v15.16b, v15.16b, v1.16b
eor v16.16b, v16.16b, v2.16b
eor v17.16b, v17.16b, v3.16b
eor v19.16b, v19.16b, v4.16b
tbl v18.16b, {v18.16b}, v26.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
tbl v19.16b, {v19.16b}, v26.16b
add v12.4s, v12.4s, v18.4s
add v13.4s, v13.4s, v15.4s
add v10.4s, v10.4s, v16.4s
add v11.4s, v11.4s, v17.4s
add v14.4s, v14.4s, v19.4s
eor v20.16b, v20.16b, v12.16b
eor v6.16b, v6.16b, v13.16b
eor v7.16b, v7.16b, v10.16b
eor v8.16b, v8.16b, v11.16b
eor v5.16b, v5.16b, v14.16b
ushr v9.4s, v5.4s, #25
sli v9.4s, v5.4s, #7
ushr v5.4s, v8.4s, #25
sli v5.4s, v8.4s, #7
ushr v8.4s, v7.4s, #25
sli v8.4s, v7.4s, #7
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v20.4s, #25
sli v6.4s, v20.4s, #7
ext v9.16b, v9.16b, v9.16b, #12
ext v14.16b, v14.16b, v14.16b, #8
ext v19.16b, v19.16b, v19.16b, #4
subs x7, x7, #1
b.gt Lopen_main_loop_rounds
subs x6, x6, #1
b.ge Lopen_main_loop_rounds_short
eor v20.16b, v20.16b, v20.16b //zero
not v21.16b, v20.16b // -1
sub v21.4s, v25.4s, v21.4s // Add +1
ext v20.16b, v21.16b, v20.16b, #12 // Get the last element (counter)
add v19.4s, v19.4s, v20.4s
add v15.4s, v15.4s, v25.4s
mov x11, #5
dup v20.4s, w11
add v25.4s, v25.4s, v20.4s
zip1 v20.4s, v0.4s, v1.4s
zip2 v21.4s, v0.4s, v1.4s
zip1 v22.4s, v2.4s, v3.4s
zip2 v23.4s, v2.4s, v3.4s
zip1 v0.2d, v20.2d, v22.2d
zip2 v1.2d, v20.2d, v22.2d
zip1 v2.2d, v21.2d, v23.2d
zip2 v3.2d, v21.2d, v23.2d
zip1 v20.4s, v5.4s, v6.4s
zip2 v21.4s, v5.4s, v6.4s
zip1 v22.4s, v7.4s, v8.4s
zip2 v23.4s, v7.4s, v8.4s
zip1 v5.2d, v20.2d, v22.2d
zip2 v6.2d, v20.2d, v22.2d
zip1 v7.2d, v21.2d, v23.2d
zip2 v8.2d, v21.2d, v23.2d
zip1 v20.4s, v10.4s, v11.4s
zip2 v21.4s, v10.4s, v11.4s
zip1 v22.4s, v12.4s, v13.4s
zip2 v23.4s, v12.4s, v13.4s
zip1 v10.2d, v20.2d, v22.2d
zip2 v11.2d, v20.2d, v22.2d
zip1 v12.2d, v21.2d, v23.2d
zip2 v13.2d, v21.2d, v23.2d
zip1 v20.4s, v15.4s, v16.4s
zip2 v21.4s, v15.4s, v16.4s
zip1 v22.4s, v17.4s, v18.4s
zip2 v23.4s, v17.4s, v18.4s
zip1 v15.2d, v20.2d, v22.2d
zip2 v16.2d, v20.2d, v22.2d
zip1 v17.2d, v21.2d, v23.2d
zip2 v18.2d, v21.2d, v23.2d
add v0.4s, v0.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v15.4s, v15.4s, v30.4s
add v1.4s, v1.4s, v24.4s
add v6.4s, v6.4s, v28.4s
add v11.4s, v11.4s, v29.4s
add v16.4s, v16.4s, v30.4s
add v2.4s, v2.4s, v24.4s
add v7.4s, v7.4s, v28.4s
add v12.4s, v12.4s, v29.4s
add v17.4s, v17.4s, v30.4s
add v3.4s, v3.4s, v24.4s
add v8.4s, v8.4s, v28.4s
add v13.4s, v13.4s, v29.4s
add v18.4s, v18.4s, v30.4s
add v4.4s, v4.4s, v24.4s
add v9.4s, v9.4s, v28.4s
add v14.4s, v14.4s, v29.4s
add v19.4s, v19.4s, v30.4s
// We can always safely store 192 bytes
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v0.16b
eor v21.16b, v21.16b, v5.16b
eor v22.16b, v22.16b, v10.16b
eor v23.16b, v23.16b, v15.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v1.16b
eor v21.16b, v21.16b, v6.16b
eor v22.16b, v22.16b, v11.16b
eor v23.16b, v23.16b, v16.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v2.16b
eor v21.16b, v21.16b, v7.16b
eor v22.16b, v22.16b, v12.16b
eor v23.16b, v23.16b, v17.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #192
mov v0.16b, v3.16b
mov v5.16b, v8.16b
mov v10.16b, v13.16b
mov v15.16b, v18.16b
cmp x2, #64
b.lt Lopen_tail_64_store
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v3.16b
eor v21.16b, v21.16b, v8.16b
eor v22.16b, v22.16b, v13.16b
eor v23.16b, v23.16b, v18.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #64
mov v0.16b, v4.16b
mov v5.16b, v9.16b
mov v10.16b, v14.16b
mov v15.16b, v19.16b
cmp x2, #64
b.lt Lopen_tail_64_store
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v4.16b
eor v21.16b, v21.16b, v9.16b
eor v22.16b, v22.16b, v14.16b
eor v23.16b, v23.16b, v19.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #64
b Lopen_main_loop
Lopen_tail:
cbz x2, Lopen_finalize
lsr x4, x2, #4 // How many whole blocks we have to hash
cmp x2, #64
b.le Lopen_tail_64
cmp x2, #128
b.le Lopen_tail_128
Lopen_tail_192:
// We need three more blocks
mov v0.16b, v24.16b
mov v1.16b, v24.16b
mov v2.16b, v24.16b
mov v5.16b, v28.16b
mov v6.16b, v28.16b
mov v7.16b, v28.16b
mov v10.16b, v29.16b
mov v11.16b, v29.16b
mov v12.16b, v29.16b
mov v15.16b, v30.16b
mov v16.16b, v30.16b
mov v17.16b, v30.16b
eor v23.16b, v23.16b, v23.16b
eor v21.16b, v21.16b, v21.16b
ins v23.s[0], v25.s[0]
ins v21.d[0], x15
add v22.4s, v23.4s, v21.4s
add v21.4s, v22.4s, v21.4s
add v15.4s, v15.4s, v21.4s
add v16.4s, v16.4s, v23.4s
add v17.4s, v17.4s, v22.4s
mov x7, #10
subs x6, x7, x4 // itr1 can be negative if we have more than 160 bytes to hash
csel x7, x7, x4, le // if itr1 is zero or less, itr2 should be 10 to indicate all 10 rounds are hashing
sub x4, x4, x7
cbz x7, Lopen_tail_192_rounds_no_hash
Lopen_tail_192_rounds:
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
Lopen_tail_192_rounds_no_hash:
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #4
ext v6.16b, v6.16b, v6.16b, #4
ext v7.16b, v7.16b, v7.16b, #4
ext v10.16b, v10.16b, v10.16b, #8
ext v11.16b, v11.16b, v11.16b, #8
ext v12.16b, v12.16b, v12.16b, #8
ext v15.16b, v15.16b, v15.16b, #12
ext v16.16b, v16.16b, v16.16b, #12
ext v17.16b, v17.16b, v17.16b, #12
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #12
ext v6.16b, v6.16b, v6.16b, #12
ext v7.16b, v7.16b, v7.16b, #12
ext v10.16b, v10.16b, v10.16b, #8
ext v11.16b, v11.16b, v11.16b, #8
ext v12.16b, v12.16b, v12.16b, #8
ext v15.16b, v15.16b, v15.16b, #4
ext v16.16b, v16.16b, v16.16b, #4
ext v17.16b, v17.16b, v17.16b, #4
subs x7, x7, #1
b.gt Lopen_tail_192_rounds
subs x6, x6, #1
b.ge Lopen_tail_192_rounds_no_hash
// We hashed 160 bytes at most, may still have 32 bytes left
Lopen_tail_192_hash:
cbz x4, Lopen_tail_192_hash_done
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
sub x4, x4, #1
b Lopen_tail_192_hash
Lopen_tail_192_hash_done:
add v0.4s, v0.4s, v24.4s
add v1.4s, v1.4s, v24.4s
add v2.4s, v2.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v6.4s, v6.4s, v28.4s
add v7.4s, v7.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v11.4s, v11.4s, v29.4s
add v12.4s, v12.4s, v29.4s
add v15.4s, v15.4s, v30.4s
add v16.4s, v16.4s, v30.4s
add v17.4s, v17.4s, v30.4s
add v15.4s, v15.4s, v21.4s
add v16.4s, v16.4s, v23.4s
add v17.4s, v17.4s, v22.4s
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v1.16b
eor v21.16b, v21.16b, v6.16b
eor v22.16b, v22.16b, v11.16b
eor v23.16b, v23.16b, v16.16b
st1 {v20.16b - v23.16b}, [x0], #64
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v2.16b
eor v21.16b, v21.16b, v7.16b
eor v22.16b, v22.16b, v12.16b
eor v23.16b, v23.16b, v17.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #128
b Lopen_tail_64_store
Lopen_tail_128:
// We need two more blocks
mov v0.16b, v24.16b
mov v1.16b, v24.16b
mov v5.16b, v28.16b
mov v6.16b, v28.16b
mov v10.16b, v29.16b
mov v11.16b, v29.16b
mov v15.16b, v30.16b
mov v16.16b, v30.16b
eor v23.16b, v23.16b, v23.16b
eor v22.16b, v22.16b, v22.16b
ins v23.s[0], v25.s[0]
ins v22.d[0], x15
add v22.4s, v22.4s, v23.4s
add v15.4s, v15.4s, v22.4s
add v16.4s, v16.4s, v23.4s
mov x6, #10
sub x6, x6, x4
Lopen_tail_128_rounds:
add v0.4s, v0.4s, v5.4s
eor v15.16b, v15.16b, v0.16b
rev32 v15.8h, v15.8h
add v10.4s, v10.4s, v15.4s
eor v5.16b, v5.16b, v10.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
add v0.4s, v0.4s, v20.4s
eor v15.16b, v15.16b, v0.16b
tbl v15.16b, {v15.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
eor v20.16b, v20.16b, v10.16b
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #4
ext v10.16b, v10.16b, v10.16b, #8
ext v15.16b, v15.16b, v15.16b, #12
add v1.4s, v1.4s, v6.4s
eor v16.16b, v16.16b, v1.16b
rev32 v16.8h, v16.8h
add v11.4s, v11.4s, v16.4s
eor v6.16b, v6.16b, v11.16b
ushr v20.4s, v6.4s, #20
sli v20.4s, v6.4s, #12
add v1.4s, v1.4s, v20.4s
eor v16.16b, v16.16b, v1.16b
tbl v16.16b, {v16.16b}, v26.16b
add v11.4s, v11.4s, v16.4s
eor v20.16b, v20.16b, v11.16b
ushr v6.4s, v20.4s, #25
sli v6.4s, v20.4s, #7
ext v6.16b, v6.16b, v6.16b, #4
ext v11.16b, v11.16b, v11.16b, #8
ext v16.16b, v16.16b, v16.16b, #12
add v0.4s, v0.4s, v5.4s
eor v15.16b, v15.16b, v0.16b
rev32 v15.8h, v15.8h
add v10.4s, v10.4s, v15.4s
eor v5.16b, v5.16b, v10.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
add v0.4s, v0.4s, v20.4s
eor v15.16b, v15.16b, v0.16b
tbl v15.16b, {v15.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
eor v20.16b, v20.16b, v10.16b
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #12
ext v10.16b, v10.16b, v10.16b, #8
ext v15.16b, v15.16b, v15.16b, #4
add v1.4s, v1.4s, v6.4s
eor v16.16b, v16.16b, v1.16b
rev32 v16.8h, v16.8h
add v11.4s, v11.4s, v16.4s
eor v6.16b, v6.16b, v11.16b
ushr v20.4s, v6.4s, #20
sli v20.4s, v6.4s, #12
add v1.4s, v1.4s, v20.4s
eor v16.16b, v16.16b, v1.16b
tbl v16.16b, {v16.16b}, v26.16b
add v11.4s, v11.4s, v16.4s
eor v20.16b, v20.16b, v11.16b
ushr v6.4s, v20.4s, #25
sli v6.4s, v20.4s, #7
ext v6.16b, v6.16b, v6.16b, #12
ext v11.16b, v11.16b, v11.16b, #8
ext v16.16b, v16.16b, v16.16b, #4
subs x6, x6, #1
b.gt Lopen_tail_128_rounds
cbz x4, Lopen_tail_128_rounds_done
subs x4, x4, #1
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
b Lopen_tail_128_rounds
Lopen_tail_128_rounds_done:
add v0.4s, v0.4s, v24.4s
add v1.4s, v1.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v6.4s, v6.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v11.4s, v11.4s, v29.4s
add v15.4s, v15.4s, v30.4s
add v16.4s, v16.4s, v30.4s
add v15.4s, v15.4s, v22.4s
add v16.4s, v16.4s, v23.4s
ld1 {v20.16b - v23.16b}, [x1], #64
eor v20.16b, v20.16b, v1.16b
eor v21.16b, v21.16b, v6.16b
eor v22.16b, v22.16b, v11.16b
eor v23.16b, v23.16b, v16.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #64
b Lopen_tail_64_store
Lopen_tail_64:
// We just need a single block
mov v0.16b, v24.16b
mov v5.16b, v28.16b
mov v10.16b, v29.16b
mov v15.16b, v30.16b
eor v23.16b, v23.16b, v23.16b
ins v23.s[0], v25.s[0]
add v15.4s, v15.4s, v23.4s
mov x6, #10
sub x6, x6, x4
Lopen_tail_64_rounds:
add v0.4s, v0.4s, v5.4s
eor v15.16b, v15.16b, v0.16b
rev32 v15.8h, v15.8h
add v10.4s, v10.4s, v15.4s
eor v5.16b, v5.16b, v10.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
add v0.4s, v0.4s, v20.4s
eor v15.16b, v15.16b, v0.16b
tbl v15.16b, {v15.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
eor v20.16b, v20.16b, v10.16b
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #4
ext v10.16b, v10.16b, v10.16b, #8
ext v15.16b, v15.16b, v15.16b, #12
add v0.4s, v0.4s, v5.4s
eor v15.16b, v15.16b, v0.16b
rev32 v15.8h, v15.8h
add v10.4s, v10.4s, v15.4s
eor v5.16b, v5.16b, v10.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
add v0.4s, v0.4s, v20.4s
eor v15.16b, v15.16b, v0.16b
tbl v15.16b, {v15.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
eor v20.16b, v20.16b, v10.16b
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #12
ext v10.16b, v10.16b, v10.16b, #8
ext v15.16b, v15.16b, v15.16b, #4
subs x6, x6, #1
b.gt Lopen_tail_64_rounds
cbz x4, Lopen_tail_64_rounds_done
subs x4, x4, #1
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
b Lopen_tail_64_rounds
Lopen_tail_64_rounds_done:
add v0.4s, v0.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v15.4s, v15.4s, v30.4s
add v15.4s, v15.4s, v23.4s
Lopen_tail_64_store:
cmp x2, #16
b.lt Lopen_tail_16
ld1 {v20.16b}, [x1], #16
eor v20.16b, v20.16b, v0.16b
st1 {v20.16b}, [x0], #16
mov v0.16b, v5.16b
mov v5.16b, v10.16b
mov v10.16b, v15.16b
sub x2, x2, #16
b Lopen_tail_64_store
Lopen_tail_16:
// Here we handle the last [0,16) bytes that require a padded block
cbz x2, Lopen_finalize
eor v20.16b, v20.16b, v20.16b // Use T0 to load the ciphertext
eor v21.16b, v21.16b, v21.16b // Use T1 to generate an AND mask
not v22.16b, v20.16b
add x7, x1, x2
mov x6, x2
Lopen_tail_16_compose:
ext v20.16b, v20.16b, v20.16b, #15
ldrb w11, [x7, #-1]!
mov v20.b[0], w11
ext v21.16b, v22.16b, v21.16b, #15
subs x2, x2, #1
b.gt Lopen_tail_16_compose
and v20.16b, v20.16b, v21.16b
// Hash in the final padded block
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
eor v20.16b, v20.16b, v0.16b
Lopen_tail_16_store:
umov w11, v20.b[0]
strb w11, [x0], #1
ext v20.16b, v20.16b, v20.16b, #1
subs x6, x6, #1
b.gt Lopen_tail_16_store
Lopen_finalize:
mov x11, v31.d[0]
mov x12, v31.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
// Final reduction step
sub x12, xzr, x15
orr x13, xzr, #3
subs x11, x8, #-5
sbcs x12, x9, x12
sbcs x13, x10, x13
csel x8, x11, x8, cs
csel x9, x12, x9, cs
csel x10, x13, x10, cs
mov x11, v27.d[0]
mov x12, v27.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
stp x8, x9, [x5]
ldp d8, d9, [sp, #16]
ldp d10, d11, [sp, #32]
ldp d12, d13, [sp, #48]
ldp d14, d15, [sp, #64]
.cfi_restore b15
.cfi_restore b14
.cfi_restore b13
.cfi_restore b12
.cfi_restore b11
.cfi_restore b10
.cfi_restore b9
.cfi_restore b8
ldp x29, x30, [sp], 80
.cfi_restore w29
.cfi_restore w30
.cfi_def_cfa_offset 0
AARCH64_VALIDATE_LINK_REGISTER
ret
Lopen_128:
// On some architectures preparing 5 blocks for small buffers is wasteful
eor v25.16b, v25.16b, v25.16b
mov x11, #1
mov v25.s[0], w11
mov v0.16b, v24.16b
mov v1.16b, v24.16b
mov v2.16b, v24.16b
mov v5.16b, v28.16b
mov v6.16b, v28.16b
mov v7.16b, v28.16b
mov v10.16b, v29.16b
mov v11.16b, v29.16b
mov v12.16b, v29.16b
mov v17.16b, v30.16b
add v15.4s, v17.4s, v25.4s
add v16.4s, v15.4s, v25.4s
mov x6, #10
Lopen_128_rounds:
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #4
ext v6.16b, v6.16b, v6.16b, #4
ext v7.16b, v7.16b, v7.16b, #4
ext v10.16b, v10.16b, v10.16b, #8
ext v11.16b, v11.16b, v11.16b, #8
ext v12.16b, v12.16b, v12.16b, #8
ext v15.16b, v15.16b, v15.16b, #12
ext v16.16b, v16.16b, v16.16b, #12
ext v17.16b, v17.16b, v17.16b, #12
add v0.4s, v0.4s, v5.4s
add v1.4s, v1.4s, v6.4s
add v2.4s, v2.4s, v7.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
rev32 v15.8h, v15.8h
rev32 v16.8h, v16.8h
rev32 v17.8h, v17.8h
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v5.16b, v5.16b, v10.16b
eor v6.16b, v6.16b, v11.16b
eor v7.16b, v7.16b, v12.16b
ushr v20.4s, v5.4s, #20
sli v20.4s, v5.4s, #12
ushr v5.4s, v6.4s, #20
sli v5.4s, v6.4s, #12
ushr v6.4s, v7.4s, #20
sli v6.4s, v7.4s, #12
add v0.4s, v0.4s, v20.4s
add v1.4s, v1.4s, v5.4s
add v2.4s, v2.4s, v6.4s
eor v15.16b, v15.16b, v0.16b
eor v16.16b, v16.16b, v1.16b
eor v17.16b, v17.16b, v2.16b
tbl v15.16b, {v15.16b}, v26.16b
tbl v16.16b, {v16.16b}, v26.16b
tbl v17.16b, {v17.16b}, v26.16b
add v10.4s, v10.4s, v15.4s
add v11.4s, v11.4s, v16.4s
add v12.4s, v12.4s, v17.4s
eor v20.16b, v20.16b, v10.16b
eor v5.16b, v5.16b, v11.16b
eor v6.16b, v6.16b, v12.16b
ushr v7.4s, v6.4s, #25
sli v7.4s, v6.4s, #7
ushr v6.4s, v5.4s, #25
sli v6.4s, v5.4s, #7
ushr v5.4s, v20.4s, #25
sli v5.4s, v20.4s, #7
ext v5.16b, v5.16b, v5.16b, #12
ext v6.16b, v6.16b, v6.16b, #12
ext v7.16b, v7.16b, v7.16b, #12
ext v10.16b, v10.16b, v10.16b, #8
ext v11.16b, v11.16b, v11.16b, #8
ext v12.16b, v12.16b, v12.16b, #8
ext v15.16b, v15.16b, v15.16b, #4
ext v16.16b, v16.16b, v16.16b, #4
ext v17.16b, v17.16b, v17.16b, #4
subs x6, x6, #1
b.hi Lopen_128_rounds
add v0.4s, v0.4s, v24.4s
add v1.4s, v1.4s, v24.4s
add v2.4s, v2.4s, v24.4s
add v5.4s, v5.4s, v28.4s
add v6.4s, v6.4s, v28.4s
add v7.4s, v7.4s, v28.4s
add v10.4s, v10.4s, v29.4s
add v11.4s, v11.4s, v29.4s
add v30.4s, v30.4s, v25.4s
add v15.4s, v15.4s, v30.4s
add v30.4s, v30.4s, v25.4s
add v16.4s, v16.4s, v30.4s
and v2.16b, v2.16b, v27.16b
mov x16, v2.d[0] // Move the R key to GPRs
mov x17, v2.d[1]
mov v27.16b, v7.16b // Store the S key
bl Lpoly_hash_ad_internal
Lopen_128_store:
cmp x2, #64
b.lt Lopen_128_store_64
ld1 {v20.16b - v23.16b}, [x1], #64
mov x11, v20.d[0]
mov x12, v20.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
mov x11, v21.d[0]
mov x12, v21.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
mov x11, v22.d[0]
mov x12, v22.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
mov x11, v23.d[0]
mov x12, v23.d[1]
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
eor v20.16b, v20.16b, v0.16b
eor v21.16b, v21.16b, v5.16b
eor v22.16b, v22.16b, v10.16b
eor v23.16b, v23.16b, v15.16b
st1 {v20.16b - v23.16b}, [x0], #64
sub x2, x2, #64
mov v0.16b, v1.16b
mov v5.16b, v6.16b
mov v10.16b, v11.16b
mov v15.16b, v16.16b
Lopen_128_store_64:
lsr x4, x2, #4
mov x3, x1
Lopen_128_hash_64:
cbz x4, Lopen_tail_64_store
ldp x11, x12, [x3], 16
adds x8, x8, x11
adcs x9, x9, x12
adc x10, x10, x15
mul x11, x8, x16 // [t2:t1:t0] = [acc2:acc1:acc0] * r0
umulh x12, x8, x16
mul x13, x9, x16
umulh x14, x9, x16
adds x12, x12, x13
mul x13, x10, x16
adc x13, x13, x14
mul x14, x8, x17 // [t3:t2:t1:t0] = [acc2:acc1:acc0] * [r1:r0]
umulh x8, x8, x17
adds x12, x12, x14
mul x14, x9, x17
umulh x9, x9, x17
adcs x14, x14, x8
mul x10, x10, x17
adc x10, x10, x9
adds x13, x13, x14
adc x14, x10, xzr
and x10, x13, #3 // At this point acc2 is 2 bits at most (value of 3)
and x8, x13, #-4
extr x13, x14, x13, #2
adds x8, x8, x11
lsr x11, x14, #2
adc x9, x14, x11 // No carry out since t0 is 61 bits and t3 is 63 bits
adds x8, x8, x13
adcs x9, x9, x12
adc x10, x10, xzr // At this point acc2 has the value of 4 at most
sub x4, x4, #1
b Lopen_128_hash_64
.cfi_endproc
#endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(_WIN32)
|
Vtyeshe/geoai-backend
| 34,239
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/sha256-armv8-linux64.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(__ELF__)
// Copyright 2014-2020 The OpenSSL Project Authors. All Rights Reserved.
//
// Licensed under the Apache License, Version 2.0 (the "License");
// you may not use this file except in compliance with the License.
// You may obtain a copy of the License at
//
// https://www.apache.org/licenses/LICENSE-2.0
//
// Unless required by applicable law or agreed to in writing, software
// distributed under the License is distributed on an "AS IS" BASIS,
// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
// See the License for the specific language governing permissions and
// limitations under the License.
// ====================================================================
// Written by Andy Polyakov <appro@openssl.org> for the OpenSSL
// project.
// ====================================================================
//
// SHA256/512 for ARMv8.
//
// Performance in cycles per processed byte and improvement coefficient
// over code generated with "default" compiler:
//
// SHA256-hw SHA256(*) SHA512
// Apple A7 1.97 10.5 (+33%) 6.73 (-1%(**))
// Cortex-A53 2.38 15.5 (+115%) 10.0 (+150%(***))
// Cortex-A57 2.31 11.6 (+86%) 7.51 (+260%(***))
// Denver 2.01 10.5 (+26%) 6.70 (+8%)
// X-Gene 20.0 (+100%) 12.8 (+300%(***))
// Mongoose 2.36 13.0 (+50%) 8.36 (+33%)
// Kryo 1.92 17.4 (+30%) 11.2 (+8%)
//
// (*) Software SHA256 results are of lesser relevance, presented
// mostly for informational purposes.
// (**) The result is a trade-off: it's possible to improve it by
// 10% (or by 1 cycle per round), but at the cost of 20% loss
// on Cortex-A53 (or by 4 cycles per round).
// (***) Super-impressive coefficients over gcc-generated code are
// indication of some compiler "pathology", most notably code
// generated with -mgeneral-regs-only is significantly faster
// and the gap is only 40-90%.
#ifndef __KERNEL__
#endif
.text
.globl sha256_block_data_order_nohw
.hidden sha256_block_data_order_nohw
.type sha256_block_data_order_nohw,%function
.align 6
sha256_block_data_order_nohw:
AARCH64_SIGN_LINK_REGISTER
stp x29,x30,[sp,#-128]!
add x29,sp,#0
stp x19,x20,[sp,#16]
stp x21,x22,[sp,#32]
stp x23,x24,[sp,#48]
stp x25,x26,[sp,#64]
stp x27,x28,[sp,#80]
sub sp,sp,#4*4
ldp w20,w21,[x0] // load context
ldp w22,w23,[x0,#2*4]
ldp w24,w25,[x0,#4*4]
add x2,x1,x2,lsl#6 // end of input
ldp w26,w27,[x0,#6*4]
adrp x30,.LK256
add x30,x30,:lo12:.LK256
stp x0,x2,[x29,#96]
.Loop:
ldp w3,w4,[x1],#2*4
ldr w19,[x30],#4 // *K++
eor w28,w21,w22 // magic seed
str x1,[x29,#112]
#ifndef __AARCH64EB__
rev w3,w3 // 0
#endif
ror w16,w24,#6
add w27,w27,w19 // h+=K[i]
eor w6,w24,w24,ror#14
and w17,w25,w24
bic w19,w26,w24
add w27,w27,w3 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w20,w21 // a^b, b^c in next round
eor w16,w16,w6,ror#11 // Sigma1(e)
ror w6,w20,#2
add w27,w27,w17 // h+=Ch(e,f,g)
eor w17,w20,w20,ror#9
add w27,w27,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w23,w23,w27 // d+=h
eor w28,w28,w21 // Maj(a,b,c)
eor w17,w6,w17,ror#13 // Sigma0(a)
add w27,w27,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w27,w27,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w4,w4 // 1
#endif
ldp w5,w6,[x1],#2*4
add w27,w27,w17 // h+=Sigma0(a)
ror w16,w23,#6
add w26,w26,w28 // h+=K[i]
eor w7,w23,w23,ror#14
and w17,w24,w23
bic w28,w25,w23
add w26,w26,w4 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w27,w20 // a^b, b^c in next round
eor w16,w16,w7,ror#11 // Sigma1(e)
ror w7,w27,#2
add w26,w26,w17 // h+=Ch(e,f,g)
eor w17,w27,w27,ror#9
add w26,w26,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w22,w22,w26 // d+=h
eor w19,w19,w20 // Maj(a,b,c)
eor w17,w7,w17,ror#13 // Sigma0(a)
add w26,w26,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w26,w26,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w5,w5 // 2
#endif
add w26,w26,w17 // h+=Sigma0(a)
ror w16,w22,#6
add w25,w25,w19 // h+=K[i]
eor w8,w22,w22,ror#14
and w17,w23,w22
bic w19,w24,w22
add w25,w25,w5 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w26,w27 // a^b, b^c in next round
eor w16,w16,w8,ror#11 // Sigma1(e)
ror w8,w26,#2
add w25,w25,w17 // h+=Ch(e,f,g)
eor w17,w26,w26,ror#9
add w25,w25,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w21,w21,w25 // d+=h
eor w28,w28,w27 // Maj(a,b,c)
eor w17,w8,w17,ror#13 // Sigma0(a)
add w25,w25,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w25,w25,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w6,w6 // 3
#endif
ldp w7,w8,[x1],#2*4
add w25,w25,w17 // h+=Sigma0(a)
ror w16,w21,#6
add w24,w24,w28 // h+=K[i]
eor w9,w21,w21,ror#14
and w17,w22,w21
bic w28,w23,w21
add w24,w24,w6 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w25,w26 // a^b, b^c in next round
eor w16,w16,w9,ror#11 // Sigma1(e)
ror w9,w25,#2
add w24,w24,w17 // h+=Ch(e,f,g)
eor w17,w25,w25,ror#9
add w24,w24,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w20,w20,w24 // d+=h
eor w19,w19,w26 // Maj(a,b,c)
eor w17,w9,w17,ror#13 // Sigma0(a)
add w24,w24,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w24,w24,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w7,w7 // 4
#endif
add w24,w24,w17 // h+=Sigma0(a)
ror w16,w20,#6
add w23,w23,w19 // h+=K[i]
eor w10,w20,w20,ror#14
and w17,w21,w20
bic w19,w22,w20
add w23,w23,w7 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w24,w25 // a^b, b^c in next round
eor w16,w16,w10,ror#11 // Sigma1(e)
ror w10,w24,#2
add w23,w23,w17 // h+=Ch(e,f,g)
eor w17,w24,w24,ror#9
add w23,w23,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w27,w27,w23 // d+=h
eor w28,w28,w25 // Maj(a,b,c)
eor w17,w10,w17,ror#13 // Sigma0(a)
add w23,w23,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w23,w23,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w8,w8 // 5
#endif
ldp w9,w10,[x1],#2*4
add w23,w23,w17 // h+=Sigma0(a)
ror w16,w27,#6
add w22,w22,w28 // h+=K[i]
eor w11,w27,w27,ror#14
and w17,w20,w27
bic w28,w21,w27
add w22,w22,w8 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w23,w24 // a^b, b^c in next round
eor w16,w16,w11,ror#11 // Sigma1(e)
ror w11,w23,#2
add w22,w22,w17 // h+=Ch(e,f,g)
eor w17,w23,w23,ror#9
add w22,w22,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w26,w26,w22 // d+=h
eor w19,w19,w24 // Maj(a,b,c)
eor w17,w11,w17,ror#13 // Sigma0(a)
add w22,w22,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w22,w22,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w9,w9 // 6
#endif
add w22,w22,w17 // h+=Sigma0(a)
ror w16,w26,#6
add w21,w21,w19 // h+=K[i]
eor w12,w26,w26,ror#14
and w17,w27,w26
bic w19,w20,w26
add w21,w21,w9 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w22,w23 // a^b, b^c in next round
eor w16,w16,w12,ror#11 // Sigma1(e)
ror w12,w22,#2
add w21,w21,w17 // h+=Ch(e,f,g)
eor w17,w22,w22,ror#9
add w21,w21,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w25,w25,w21 // d+=h
eor w28,w28,w23 // Maj(a,b,c)
eor w17,w12,w17,ror#13 // Sigma0(a)
add w21,w21,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w21,w21,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w10,w10 // 7
#endif
ldp w11,w12,[x1],#2*4
add w21,w21,w17 // h+=Sigma0(a)
ror w16,w25,#6
add w20,w20,w28 // h+=K[i]
eor w13,w25,w25,ror#14
and w17,w26,w25
bic w28,w27,w25
add w20,w20,w10 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w21,w22 // a^b, b^c in next round
eor w16,w16,w13,ror#11 // Sigma1(e)
ror w13,w21,#2
add w20,w20,w17 // h+=Ch(e,f,g)
eor w17,w21,w21,ror#9
add w20,w20,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w24,w24,w20 // d+=h
eor w19,w19,w22 // Maj(a,b,c)
eor w17,w13,w17,ror#13 // Sigma0(a)
add w20,w20,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w20,w20,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w11,w11 // 8
#endif
add w20,w20,w17 // h+=Sigma0(a)
ror w16,w24,#6
add w27,w27,w19 // h+=K[i]
eor w14,w24,w24,ror#14
and w17,w25,w24
bic w19,w26,w24
add w27,w27,w11 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w20,w21 // a^b, b^c in next round
eor w16,w16,w14,ror#11 // Sigma1(e)
ror w14,w20,#2
add w27,w27,w17 // h+=Ch(e,f,g)
eor w17,w20,w20,ror#9
add w27,w27,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w23,w23,w27 // d+=h
eor w28,w28,w21 // Maj(a,b,c)
eor w17,w14,w17,ror#13 // Sigma0(a)
add w27,w27,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w27,w27,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w12,w12 // 9
#endif
ldp w13,w14,[x1],#2*4
add w27,w27,w17 // h+=Sigma0(a)
ror w16,w23,#6
add w26,w26,w28 // h+=K[i]
eor w15,w23,w23,ror#14
and w17,w24,w23
bic w28,w25,w23
add w26,w26,w12 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w27,w20 // a^b, b^c in next round
eor w16,w16,w15,ror#11 // Sigma1(e)
ror w15,w27,#2
add w26,w26,w17 // h+=Ch(e,f,g)
eor w17,w27,w27,ror#9
add w26,w26,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w22,w22,w26 // d+=h
eor w19,w19,w20 // Maj(a,b,c)
eor w17,w15,w17,ror#13 // Sigma0(a)
add w26,w26,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w26,w26,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w13,w13 // 10
#endif
add w26,w26,w17 // h+=Sigma0(a)
ror w16,w22,#6
add w25,w25,w19 // h+=K[i]
eor w0,w22,w22,ror#14
and w17,w23,w22
bic w19,w24,w22
add w25,w25,w13 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w26,w27 // a^b, b^c in next round
eor w16,w16,w0,ror#11 // Sigma1(e)
ror w0,w26,#2
add w25,w25,w17 // h+=Ch(e,f,g)
eor w17,w26,w26,ror#9
add w25,w25,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w21,w21,w25 // d+=h
eor w28,w28,w27 // Maj(a,b,c)
eor w17,w0,w17,ror#13 // Sigma0(a)
add w25,w25,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w25,w25,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w14,w14 // 11
#endif
ldp w15,w0,[x1],#2*4
add w25,w25,w17 // h+=Sigma0(a)
str w6,[sp,#12]
ror w16,w21,#6
add w24,w24,w28 // h+=K[i]
eor w6,w21,w21,ror#14
and w17,w22,w21
bic w28,w23,w21
add w24,w24,w14 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w25,w26 // a^b, b^c in next round
eor w16,w16,w6,ror#11 // Sigma1(e)
ror w6,w25,#2
add w24,w24,w17 // h+=Ch(e,f,g)
eor w17,w25,w25,ror#9
add w24,w24,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w20,w20,w24 // d+=h
eor w19,w19,w26 // Maj(a,b,c)
eor w17,w6,w17,ror#13 // Sigma0(a)
add w24,w24,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w24,w24,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w15,w15 // 12
#endif
add w24,w24,w17 // h+=Sigma0(a)
str w7,[sp,#0]
ror w16,w20,#6
add w23,w23,w19 // h+=K[i]
eor w7,w20,w20,ror#14
and w17,w21,w20
bic w19,w22,w20
add w23,w23,w15 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w24,w25 // a^b, b^c in next round
eor w16,w16,w7,ror#11 // Sigma1(e)
ror w7,w24,#2
add w23,w23,w17 // h+=Ch(e,f,g)
eor w17,w24,w24,ror#9
add w23,w23,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w27,w27,w23 // d+=h
eor w28,w28,w25 // Maj(a,b,c)
eor w17,w7,w17,ror#13 // Sigma0(a)
add w23,w23,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w23,w23,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w0,w0 // 13
#endif
ldp w1,w2,[x1]
add w23,w23,w17 // h+=Sigma0(a)
str w8,[sp,#4]
ror w16,w27,#6
add w22,w22,w28 // h+=K[i]
eor w8,w27,w27,ror#14
and w17,w20,w27
bic w28,w21,w27
add w22,w22,w0 // h+=X[i]
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w23,w24 // a^b, b^c in next round
eor w16,w16,w8,ror#11 // Sigma1(e)
ror w8,w23,#2
add w22,w22,w17 // h+=Ch(e,f,g)
eor w17,w23,w23,ror#9
add w22,w22,w16 // h+=Sigma1(e)
and w19,w19,w28 // (b^c)&=(a^b)
add w26,w26,w22 // d+=h
eor w19,w19,w24 // Maj(a,b,c)
eor w17,w8,w17,ror#13 // Sigma0(a)
add w22,w22,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
//add w22,w22,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w1,w1 // 14
#endif
ldr w6,[sp,#12]
add w22,w22,w17 // h+=Sigma0(a)
str w9,[sp,#8]
ror w16,w26,#6
add w21,w21,w19 // h+=K[i]
eor w9,w26,w26,ror#14
and w17,w27,w26
bic w19,w20,w26
add w21,w21,w1 // h+=X[i]
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w22,w23 // a^b, b^c in next round
eor w16,w16,w9,ror#11 // Sigma1(e)
ror w9,w22,#2
add w21,w21,w17 // h+=Ch(e,f,g)
eor w17,w22,w22,ror#9
add w21,w21,w16 // h+=Sigma1(e)
and w28,w28,w19 // (b^c)&=(a^b)
add w25,w25,w21 // d+=h
eor w28,w28,w23 // Maj(a,b,c)
eor w17,w9,w17,ror#13 // Sigma0(a)
add w21,w21,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
//add w21,w21,w17 // h+=Sigma0(a)
#ifndef __AARCH64EB__
rev w2,w2 // 15
#endif
ldr w7,[sp,#0]
add w21,w21,w17 // h+=Sigma0(a)
str w10,[sp,#12]
ror w16,w25,#6
add w20,w20,w28 // h+=K[i]
ror w9,w4,#7
and w17,w26,w25
ror w8,w1,#17
bic w28,w27,w25
ror w10,w21,#2
add w20,w20,w2 // h+=X[i]
eor w16,w16,w25,ror#11
eor w9,w9,w4,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w21,w22 // a^b, b^c in next round
eor w16,w16,w25,ror#25 // Sigma1(e)
eor w10,w10,w21,ror#13
add w20,w20,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w8,w8,w1,ror#19
eor w9,w9,w4,lsr#3 // sigma0(X[i+1])
add w20,w20,w16 // h+=Sigma1(e)
eor w19,w19,w22 // Maj(a,b,c)
eor w17,w10,w21,ror#22 // Sigma0(a)
eor w8,w8,w1,lsr#10 // sigma1(X[i+14])
add w3,w3,w12
add w24,w24,w20 // d+=h
add w20,w20,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w3,w3,w9
add w20,w20,w17 // h+=Sigma0(a)
add w3,w3,w8
.Loop_16_xx:
ldr w8,[sp,#4]
str w11,[sp,#0]
ror w16,w24,#6
add w27,w27,w19 // h+=K[i]
ror w10,w5,#7
and w17,w25,w24
ror w9,w2,#17
bic w19,w26,w24
ror w11,w20,#2
add w27,w27,w3 // h+=X[i]
eor w16,w16,w24,ror#11
eor w10,w10,w5,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w20,w21 // a^b, b^c in next round
eor w16,w16,w24,ror#25 // Sigma1(e)
eor w11,w11,w20,ror#13
add w27,w27,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w9,w9,w2,ror#19
eor w10,w10,w5,lsr#3 // sigma0(X[i+1])
add w27,w27,w16 // h+=Sigma1(e)
eor w28,w28,w21 // Maj(a,b,c)
eor w17,w11,w20,ror#22 // Sigma0(a)
eor w9,w9,w2,lsr#10 // sigma1(X[i+14])
add w4,w4,w13
add w23,w23,w27 // d+=h
add w27,w27,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w4,w4,w10
add w27,w27,w17 // h+=Sigma0(a)
add w4,w4,w9
ldr w9,[sp,#8]
str w12,[sp,#4]
ror w16,w23,#6
add w26,w26,w28 // h+=K[i]
ror w11,w6,#7
and w17,w24,w23
ror w10,w3,#17
bic w28,w25,w23
ror w12,w27,#2
add w26,w26,w4 // h+=X[i]
eor w16,w16,w23,ror#11
eor w11,w11,w6,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w27,w20 // a^b, b^c in next round
eor w16,w16,w23,ror#25 // Sigma1(e)
eor w12,w12,w27,ror#13
add w26,w26,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w10,w10,w3,ror#19
eor w11,w11,w6,lsr#3 // sigma0(X[i+1])
add w26,w26,w16 // h+=Sigma1(e)
eor w19,w19,w20 // Maj(a,b,c)
eor w17,w12,w27,ror#22 // Sigma0(a)
eor w10,w10,w3,lsr#10 // sigma1(X[i+14])
add w5,w5,w14
add w22,w22,w26 // d+=h
add w26,w26,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w5,w5,w11
add w26,w26,w17 // h+=Sigma0(a)
add w5,w5,w10
ldr w10,[sp,#12]
str w13,[sp,#8]
ror w16,w22,#6
add w25,w25,w19 // h+=K[i]
ror w12,w7,#7
and w17,w23,w22
ror w11,w4,#17
bic w19,w24,w22
ror w13,w26,#2
add w25,w25,w5 // h+=X[i]
eor w16,w16,w22,ror#11
eor w12,w12,w7,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w26,w27 // a^b, b^c in next round
eor w16,w16,w22,ror#25 // Sigma1(e)
eor w13,w13,w26,ror#13
add w25,w25,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w11,w11,w4,ror#19
eor w12,w12,w7,lsr#3 // sigma0(X[i+1])
add w25,w25,w16 // h+=Sigma1(e)
eor w28,w28,w27 // Maj(a,b,c)
eor w17,w13,w26,ror#22 // Sigma0(a)
eor w11,w11,w4,lsr#10 // sigma1(X[i+14])
add w6,w6,w15
add w21,w21,w25 // d+=h
add w25,w25,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w6,w6,w12
add w25,w25,w17 // h+=Sigma0(a)
add w6,w6,w11
ldr w11,[sp,#0]
str w14,[sp,#12]
ror w16,w21,#6
add w24,w24,w28 // h+=K[i]
ror w13,w8,#7
and w17,w22,w21
ror w12,w5,#17
bic w28,w23,w21
ror w14,w25,#2
add w24,w24,w6 // h+=X[i]
eor w16,w16,w21,ror#11
eor w13,w13,w8,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w25,w26 // a^b, b^c in next round
eor w16,w16,w21,ror#25 // Sigma1(e)
eor w14,w14,w25,ror#13
add w24,w24,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w12,w12,w5,ror#19
eor w13,w13,w8,lsr#3 // sigma0(X[i+1])
add w24,w24,w16 // h+=Sigma1(e)
eor w19,w19,w26 // Maj(a,b,c)
eor w17,w14,w25,ror#22 // Sigma0(a)
eor w12,w12,w5,lsr#10 // sigma1(X[i+14])
add w7,w7,w0
add w20,w20,w24 // d+=h
add w24,w24,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w7,w7,w13
add w24,w24,w17 // h+=Sigma0(a)
add w7,w7,w12
ldr w12,[sp,#4]
str w15,[sp,#0]
ror w16,w20,#6
add w23,w23,w19 // h+=K[i]
ror w14,w9,#7
and w17,w21,w20
ror w13,w6,#17
bic w19,w22,w20
ror w15,w24,#2
add w23,w23,w7 // h+=X[i]
eor w16,w16,w20,ror#11
eor w14,w14,w9,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w24,w25 // a^b, b^c in next round
eor w16,w16,w20,ror#25 // Sigma1(e)
eor w15,w15,w24,ror#13
add w23,w23,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w13,w13,w6,ror#19
eor w14,w14,w9,lsr#3 // sigma0(X[i+1])
add w23,w23,w16 // h+=Sigma1(e)
eor w28,w28,w25 // Maj(a,b,c)
eor w17,w15,w24,ror#22 // Sigma0(a)
eor w13,w13,w6,lsr#10 // sigma1(X[i+14])
add w8,w8,w1
add w27,w27,w23 // d+=h
add w23,w23,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w8,w8,w14
add w23,w23,w17 // h+=Sigma0(a)
add w8,w8,w13
ldr w13,[sp,#8]
str w0,[sp,#4]
ror w16,w27,#6
add w22,w22,w28 // h+=K[i]
ror w15,w10,#7
and w17,w20,w27
ror w14,w7,#17
bic w28,w21,w27
ror w0,w23,#2
add w22,w22,w8 // h+=X[i]
eor w16,w16,w27,ror#11
eor w15,w15,w10,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w23,w24 // a^b, b^c in next round
eor w16,w16,w27,ror#25 // Sigma1(e)
eor w0,w0,w23,ror#13
add w22,w22,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w14,w14,w7,ror#19
eor w15,w15,w10,lsr#3 // sigma0(X[i+1])
add w22,w22,w16 // h+=Sigma1(e)
eor w19,w19,w24 // Maj(a,b,c)
eor w17,w0,w23,ror#22 // Sigma0(a)
eor w14,w14,w7,lsr#10 // sigma1(X[i+14])
add w9,w9,w2
add w26,w26,w22 // d+=h
add w22,w22,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w9,w9,w15
add w22,w22,w17 // h+=Sigma0(a)
add w9,w9,w14
ldr w14,[sp,#12]
str w1,[sp,#8]
ror w16,w26,#6
add w21,w21,w19 // h+=K[i]
ror w0,w11,#7
and w17,w27,w26
ror w15,w8,#17
bic w19,w20,w26
ror w1,w22,#2
add w21,w21,w9 // h+=X[i]
eor w16,w16,w26,ror#11
eor w0,w0,w11,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w22,w23 // a^b, b^c in next round
eor w16,w16,w26,ror#25 // Sigma1(e)
eor w1,w1,w22,ror#13
add w21,w21,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w15,w15,w8,ror#19
eor w0,w0,w11,lsr#3 // sigma0(X[i+1])
add w21,w21,w16 // h+=Sigma1(e)
eor w28,w28,w23 // Maj(a,b,c)
eor w17,w1,w22,ror#22 // Sigma0(a)
eor w15,w15,w8,lsr#10 // sigma1(X[i+14])
add w10,w10,w3
add w25,w25,w21 // d+=h
add w21,w21,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w10,w10,w0
add w21,w21,w17 // h+=Sigma0(a)
add w10,w10,w15
ldr w15,[sp,#0]
str w2,[sp,#12]
ror w16,w25,#6
add w20,w20,w28 // h+=K[i]
ror w1,w12,#7
and w17,w26,w25
ror w0,w9,#17
bic w28,w27,w25
ror w2,w21,#2
add w20,w20,w10 // h+=X[i]
eor w16,w16,w25,ror#11
eor w1,w1,w12,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w21,w22 // a^b, b^c in next round
eor w16,w16,w25,ror#25 // Sigma1(e)
eor w2,w2,w21,ror#13
add w20,w20,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w0,w0,w9,ror#19
eor w1,w1,w12,lsr#3 // sigma0(X[i+1])
add w20,w20,w16 // h+=Sigma1(e)
eor w19,w19,w22 // Maj(a,b,c)
eor w17,w2,w21,ror#22 // Sigma0(a)
eor w0,w0,w9,lsr#10 // sigma1(X[i+14])
add w11,w11,w4
add w24,w24,w20 // d+=h
add w20,w20,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w11,w11,w1
add w20,w20,w17 // h+=Sigma0(a)
add w11,w11,w0
ldr w0,[sp,#4]
str w3,[sp,#0]
ror w16,w24,#6
add w27,w27,w19 // h+=K[i]
ror w2,w13,#7
and w17,w25,w24
ror w1,w10,#17
bic w19,w26,w24
ror w3,w20,#2
add w27,w27,w11 // h+=X[i]
eor w16,w16,w24,ror#11
eor w2,w2,w13,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w20,w21 // a^b, b^c in next round
eor w16,w16,w24,ror#25 // Sigma1(e)
eor w3,w3,w20,ror#13
add w27,w27,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w1,w1,w10,ror#19
eor w2,w2,w13,lsr#3 // sigma0(X[i+1])
add w27,w27,w16 // h+=Sigma1(e)
eor w28,w28,w21 // Maj(a,b,c)
eor w17,w3,w20,ror#22 // Sigma0(a)
eor w1,w1,w10,lsr#10 // sigma1(X[i+14])
add w12,w12,w5
add w23,w23,w27 // d+=h
add w27,w27,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w12,w12,w2
add w27,w27,w17 // h+=Sigma0(a)
add w12,w12,w1
ldr w1,[sp,#8]
str w4,[sp,#4]
ror w16,w23,#6
add w26,w26,w28 // h+=K[i]
ror w3,w14,#7
and w17,w24,w23
ror w2,w11,#17
bic w28,w25,w23
ror w4,w27,#2
add w26,w26,w12 // h+=X[i]
eor w16,w16,w23,ror#11
eor w3,w3,w14,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w27,w20 // a^b, b^c in next round
eor w16,w16,w23,ror#25 // Sigma1(e)
eor w4,w4,w27,ror#13
add w26,w26,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w2,w2,w11,ror#19
eor w3,w3,w14,lsr#3 // sigma0(X[i+1])
add w26,w26,w16 // h+=Sigma1(e)
eor w19,w19,w20 // Maj(a,b,c)
eor w17,w4,w27,ror#22 // Sigma0(a)
eor w2,w2,w11,lsr#10 // sigma1(X[i+14])
add w13,w13,w6
add w22,w22,w26 // d+=h
add w26,w26,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w13,w13,w3
add w26,w26,w17 // h+=Sigma0(a)
add w13,w13,w2
ldr w2,[sp,#12]
str w5,[sp,#8]
ror w16,w22,#6
add w25,w25,w19 // h+=K[i]
ror w4,w15,#7
and w17,w23,w22
ror w3,w12,#17
bic w19,w24,w22
ror w5,w26,#2
add w25,w25,w13 // h+=X[i]
eor w16,w16,w22,ror#11
eor w4,w4,w15,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w26,w27 // a^b, b^c in next round
eor w16,w16,w22,ror#25 // Sigma1(e)
eor w5,w5,w26,ror#13
add w25,w25,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w3,w3,w12,ror#19
eor w4,w4,w15,lsr#3 // sigma0(X[i+1])
add w25,w25,w16 // h+=Sigma1(e)
eor w28,w28,w27 // Maj(a,b,c)
eor w17,w5,w26,ror#22 // Sigma0(a)
eor w3,w3,w12,lsr#10 // sigma1(X[i+14])
add w14,w14,w7
add w21,w21,w25 // d+=h
add w25,w25,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w14,w14,w4
add w25,w25,w17 // h+=Sigma0(a)
add w14,w14,w3
ldr w3,[sp,#0]
str w6,[sp,#12]
ror w16,w21,#6
add w24,w24,w28 // h+=K[i]
ror w5,w0,#7
and w17,w22,w21
ror w4,w13,#17
bic w28,w23,w21
ror w6,w25,#2
add w24,w24,w14 // h+=X[i]
eor w16,w16,w21,ror#11
eor w5,w5,w0,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w25,w26 // a^b, b^c in next round
eor w16,w16,w21,ror#25 // Sigma1(e)
eor w6,w6,w25,ror#13
add w24,w24,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w4,w4,w13,ror#19
eor w5,w5,w0,lsr#3 // sigma0(X[i+1])
add w24,w24,w16 // h+=Sigma1(e)
eor w19,w19,w26 // Maj(a,b,c)
eor w17,w6,w25,ror#22 // Sigma0(a)
eor w4,w4,w13,lsr#10 // sigma1(X[i+14])
add w15,w15,w8
add w20,w20,w24 // d+=h
add w24,w24,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w15,w15,w5
add w24,w24,w17 // h+=Sigma0(a)
add w15,w15,w4
ldr w4,[sp,#4]
str w7,[sp,#0]
ror w16,w20,#6
add w23,w23,w19 // h+=K[i]
ror w6,w1,#7
and w17,w21,w20
ror w5,w14,#17
bic w19,w22,w20
ror w7,w24,#2
add w23,w23,w15 // h+=X[i]
eor w16,w16,w20,ror#11
eor w6,w6,w1,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w24,w25 // a^b, b^c in next round
eor w16,w16,w20,ror#25 // Sigma1(e)
eor w7,w7,w24,ror#13
add w23,w23,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w5,w5,w14,ror#19
eor w6,w6,w1,lsr#3 // sigma0(X[i+1])
add w23,w23,w16 // h+=Sigma1(e)
eor w28,w28,w25 // Maj(a,b,c)
eor w17,w7,w24,ror#22 // Sigma0(a)
eor w5,w5,w14,lsr#10 // sigma1(X[i+14])
add w0,w0,w9
add w27,w27,w23 // d+=h
add w23,w23,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w0,w0,w6
add w23,w23,w17 // h+=Sigma0(a)
add w0,w0,w5
ldr w5,[sp,#8]
str w8,[sp,#4]
ror w16,w27,#6
add w22,w22,w28 // h+=K[i]
ror w7,w2,#7
and w17,w20,w27
ror w6,w15,#17
bic w28,w21,w27
ror w8,w23,#2
add w22,w22,w0 // h+=X[i]
eor w16,w16,w27,ror#11
eor w7,w7,w2,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w23,w24 // a^b, b^c in next round
eor w16,w16,w27,ror#25 // Sigma1(e)
eor w8,w8,w23,ror#13
add w22,w22,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w6,w6,w15,ror#19
eor w7,w7,w2,lsr#3 // sigma0(X[i+1])
add w22,w22,w16 // h+=Sigma1(e)
eor w19,w19,w24 // Maj(a,b,c)
eor w17,w8,w23,ror#22 // Sigma0(a)
eor w6,w6,w15,lsr#10 // sigma1(X[i+14])
add w1,w1,w10
add w26,w26,w22 // d+=h
add w22,w22,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w1,w1,w7
add w22,w22,w17 // h+=Sigma0(a)
add w1,w1,w6
ldr w6,[sp,#12]
str w9,[sp,#8]
ror w16,w26,#6
add w21,w21,w19 // h+=K[i]
ror w8,w3,#7
and w17,w27,w26
ror w7,w0,#17
bic w19,w20,w26
ror w9,w22,#2
add w21,w21,w1 // h+=X[i]
eor w16,w16,w26,ror#11
eor w8,w8,w3,ror#18
orr w17,w17,w19 // Ch(e,f,g)
eor w19,w22,w23 // a^b, b^c in next round
eor w16,w16,w26,ror#25 // Sigma1(e)
eor w9,w9,w22,ror#13
add w21,w21,w17 // h+=Ch(e,f,g)
and w28,w28,w19 // (b^c)&=(a^b)
eor w7,w7,w0,ror#19
eor w8,w8,w3,lsr#3 // sigma0(X[i+1])
add w21,w21,w16 // h+=Sigma1(e)
eor w28,w28,w23 // Maj(a,b,c)
eor w17,w9,w22,ror#22 // Sigma0(a)
eor w7,w7,w0,lsr#10 // sigma1(X[i+14])
add w2,w2,w11
add w25,w25,w21 // d+=h
add w21,w21,w28 // h+=Maj(a,b,c)
ldr w28,[x30],#4 // *K++, w19 in next round
add w2,w2,w8
add w21,w21,w17 // h+=Sigma0(a)
add w2,w2,w7
ldr w7,[sp,#0]
str w10,[sp,#12]
ror w16,w25,#6
add w20,w20,w28 // h+=K[i]
ror w9,w4,#7
and w17,w26,w25
ror w8,w1,#17
bic w28,w27,w25
ror w10,w21,#2
add w20,w20,w2 // h+=X[i]
eor w16,w16,w25,ror#11
eor w9,w9,w4,ror#18
orr w17,w17,w28 // Ch(e,f,g)
eor w28,w21,w22 // a^b, b^c in next round
eor w16,w16,w25,ror#25 // Sigma1(e)
eor w10,w10,w21,ror#13
add w20,w20,w17 // h+=Ch(e,f,g)
and w19,w19,w28 // (b^c)&=(a^b)
eor w8,w8,w1,ror#19
eor w9,w9,w4,lsr#3 // sigma0(X[i+1])
add w20,w20,w16 // h+=Sigma1(e)
eor w19,w19,w22 // Maj(a,b,c)
eor w17,w10,w21,ror#22 // Sigma0(a)
eor w8,w8,w1,lsr#10 // sigma1(X[i+14])
add w3,w3,w12
add w24,w24,w20 // d+=h
add w20,w20,w19 // h+=Maj(a,b,c)
ldr w19,[x30],#4 // *K++, w28 in next round
add w3,w3,w9
add w20,w20,w17 // h+=Sigma0(a)
add w3,w3,w8
cbnz w19,.Loop_16_xx
ldp x0,x2,[x29,#96]
ldr x1,[x29,#112]
sub x30,x30,#260 // rewind
ldp w3,w4,[x0]
ldp w5,w6,[x0,#2*4]
add x1,x1,#14*4 // advance input pointer
ldp w7,w8,[x0,#4*4]
add w20,w20,w3
ldp w9,w10,[x0,#6*4]
add w21,w21,w4
add w22,w22,w5
add w23,w23,w6
stp w20,w21,[x0]
add w24,w24,w7
add w25,w25,w8
stp w22,w23,[x0,#2*4]
add w26,w26,w9
add w27,w27,w10
cmp x1,x2
stp w24,w25,[x0,#4*4]
stp w26,w27,[x0,#6*4]
b.ne .Loop
ldp x19,x20,[x29,#16]
add sp,sp,#4*4
ldp x21,x22,[x29,#32]
ldp x23,x24,[x29,#48]
ldp x25,x26,[x29,#64]
ldp x27,x28,[x29,#80]
ldp x29,x30,[sp],#128
AARCH64_VALIDATE_LINK_REGISTER
ret
.size sha256_block_data_order_nohw,.-sha256_block_data_order_nohw
.section .rodata
.align 6
.type .LK256,%object
.LK256:
.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
.long 0 //terminator
.size .LK256,.-.LK256
.byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,65,82,77,118,56,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
.align 2
.align 2
.text
#ifndef __KERNEL__
.globl sha256_block_data_order_hw
.hidden sha256_block_data_order_hw
.type sha256_block_data_order_hw,%function
.align 6
sha256_block_data_order_hw:
// Armv8.3-A PAuth: even though x30 is pushed to stack it is not popped later.
AARCH64_VALID_CALL_TARGET
stp x29,x30,[sp,#-16]!
add x29,sp,#0
ld1 {v0.4s,v1.4s},[x0]
adrp x3,.LK256
add x3,x3,:lo12:.LK256
.Loop_hw:
ld1 {v4.16b,v5.16b,v6.16b,v7.16b},[x1],#64
sub x2,x2,#1
ld1 {v16.4s},[x3],#16
rev32 v4.16b,v4.16b
rev32 v5.16b,v5.16b
rev32 v6.16b,v6.16b
rev32 v7.16b,v7.16b
orr v18.16b,v0.16b,v0.16b // offload
orr v19.16b,v1.16b,v1.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v4.4s
.inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
.inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v5.4s
.inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
.inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v6.4s
.inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
.inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v7.4s
.inst 0x5e282887 //sha256su0 v7.16b,v4.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
.inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v4.4s
.inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
.inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v5.4s
.inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
.inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v6.4s
.inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
.inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v7.4s
.inst 0x5e282887 //sha256su0 v7.16b,v4.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
.inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v4.4s
.inst 0x5e2828a4 //sha256su0 v4.16b,v5.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
.inst 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v5.4s
.inst 0x5e2828c5 //sha256su0 v5.16b,v6.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
.inst 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v6.4s
.inst 0x5e2828e6 //sha256su0 v6.16b,v7.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
.inst 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v7.4s
.inst 0x5e282887 //sha256su0 v7.16b,v4.16b
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
.inst 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b
ld1 {v17.4s},[x3],#16
add v16.4s,v16.4s,v4.4s
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
ld1 {v16.4s},[x3],#16
add v17.4s,v17.4s,v5.4s
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
ld1 {v17.4s},[x3]
add v16.4s,v16.4s,v6.4s
sub x3,x3,#64*4-16 // rewind
orr v2.16b,v0.16b,v0.16b
.inst 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
.inst 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
add v17.4s,v17.4s,v7.4s
orr v2.16b,v0.16b,v0.16b
.inst 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
.inst 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
add v0.4s,v0.4s,v18.4s
add v1.4s,v1.4s,v19.4s
cbnz x2,.Loop_hw
st1 {v0.4s,v1.4s},[x0]
ldr x29,[sp],#16
ret
.size sha256_block_data_order_hw,.-sha256_block_data_order_hw
#endif
#endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(__ELF__)
|
Vtyeshe/geoai-backend
| 70,675
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/sha256-x86_64-elf.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86_64) && defined(__ELF__)
.text
.globl sha256_block_data_order_nohw
.hidden sha256_block_data_order_nohw
.type sha256_block_data_order_nohw,@function
.align 16
sha256_block_data_order_nohw:
.cfi_startproc
_CET_ENDBR
movq %rsp,%rax
.cfi_def_cfa_register %rax
pushq %rbx
.cfi_offset %rbx,-16
pushq %rbp
.cfi_offset %rbp,-24
pushq %r12
.cfi_offset %r12,-32
pushq %r13
.cfi_offset %r13,-40
pushq %r14
.cfi_offset %r14,-48
pushq %r15
.cfi_offset %r15,-56
shlq $4,%rdx
subq $64+32,%rsp
leaq (%rsi,%rdx,4),%rdx
andq $-64,%rsp
movq %rdi,64+0(%rsp)
movq %rsi,64+8(%rsp)
movq %rdx,64+16(%rsp)
movq %rax,88(%rsp)
.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08
.Lprologue:
movl 0(%rdi),%eax
movl 4(%rdi),%ebx
movl 8(%rdi),%ecx
movl 12(%rdi),%edx
movl 16(%rdi),%r8d
movl 20(%rdi),%r9d
movl 24(%rdi),%r10d
movl 28(%rdi),%r11d
jmp .Lloop
.align 16
.Lloop:
movl %ebx,%edi
leaq K256(%rip),%rbp
xorl %ecx,%edi
movl 0(%rsi),%r12d
movl %r8d,%r13d
movl %eax,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r9d,%r15d
xorl %r8d,%r13d
rorl $9,%r14d
xorl %r10d,%r15d
movl %r12d,0(%rsp)
xorl %eax,%r14d
andl %r8d,%r15d
rorl $5,%r13d
addl %r11d,%r12d
xorl %r10d,%r15d
rorl $11,%r14d
xorl %r8d,%r13d
addl %r15d,%r12d
movl %eax,%r15d
addl (%rbp),%r12d
xorl %eax,%r14d
xorl %ebx,%r15d
rorl $6,%r13d
movl %ebx,%r11d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r11d
addl %r12d,%edx
addl %r12d,%r11d
leaq 4(%rbp),%rbp
addl %r14d,%r11d
movl 4(%rsi),%r12d
movl %edx,%r13d
movl %r11d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r8d,%edi
xorl %edx,%r13d
rorl $9,%r14d
xorl %r9d,%edi
movl %r12d,4(%rsp)
xorl %r11d,%r14d
andl %edx,%edi
rorl $5,%r13d
addl %r10d,%r12d
xorl %r9d,%edi
rorl $11,%r14d
xorl %edx,%r13d
addl %edi,%r12d
movl %r11d,%edi
addl (%rbp),%r12d
xorl %r11d,%r14d
xorl %eax,%edi
rorl $6,%r13d
movl %eax,%r10d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r10d
addl %r12d,%ecx
addl %r12d,%r10d
leaq 4(%rbp),%rbp
addl %r14d,%r10d
movl 8(%rsi),%r12d
movl %ecx,%r13d
movl %r10d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %edx,%r15d
xorl %ecx,%r13d
rorl $9,%r14d
xorl %r8d,%r15d
movl %r12d,8(%rsp)
xorl %r10d,%r14d
andl %ecx,%r15d
rorl $5,%r13d
addl %r9d,%r12d
xorl %r8d,%r15d
rorl $11,%r14d
xorl %ecx,%r13d
addl %r15d,%r12d
movl %r10d,%r15d
addl (%rbp),%r12d
xorl %r10d,%r14d
xorl %r11d,%r15d
rorl $6,%r13d
movl %r11d,%r9d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r9d
addl %r12d,%ebx
addl %r12d,%r9d
leaq 4(%rbp),%rbp
addl %r14d,%r9d
movl 12(%rsi),%r12d
movl %ebx,%r13d
movl %r9d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %ecx,%edi
xorl %ebx,%r13d
rorl $9,%r14d
xorl %edx,%edi
movl %r12d,12(%rsp)
xorl %r9d,%r14d
andl %ebx,%edi
rorl $5,%r13d
addl %r8d,%r12d
xorl %edx,%edi
rorl $11,%r14d
xorl %ebx,%r13d
addl %edi,%r12d
movl %r9d,%edi
addl (%rbp),%r12d
xorl %r9d,%r14d
xorl %r10d,%edi
rorl $6,%r13d
movl %r10d,%r8d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r8d
addl %r12d,%eax
addl %r12d,%r8d
leaq 20(%rbp),%rbp
addl %r14d,%r8d
movl 16(%rsi),%r12d
movl %eax,%r13d
movl %r8d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %ebx,%r15d
xorl %eax,%r13d
rorl $9,%r14d
xorl %ecx,%r15d
movl %r12d,16(%rsp)
xorl %r8d,%r14d
andl %eax,%r15d
rorl $5,%r13d
addl %edx,%r12d
xorl %ecx,%r15d
rorl $11,%r14d
xorl %eax,%r13d
addl %r15d,%r12d
movl %r8d,%r15d
addl (%rbp),%r12d
xorl %r8d,%r14d
xorl %r9d,%r15d
rorl $6,%r13d
movl %r9d,%edx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%edx
addl %r12d,%r11d
addl %r12d,%edx
leaq 4(%rbp),%rbp
addl %r14d,%edx
movl 20(%rsi),%r12d
movl %r11d,%r13d
movl %edx,%r14d
bswapl %r12d
rorl $14,%r13d
movl %eax,%edi
xorl %r11d,%r13d
rorl $9,%r14d
xorl %ebx,%edi
movl %r12d,20(%rsp)
xorl %edx,%r14d
andl %r11d,%edi
rorl $5,%r13d
addl %ecx,%r12d
xorl %ebx,%edi
rorl $11,%r14d
xorl %r11d,%r13d
addl %edi,%r12d
movl %edx,%edi
addl (%rbp),%r12d
xorl %edx,%r14d
xorl %r8d,%edi
rorl $6,%r13d
movl %r8d,%ecx
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%ecx
addl %r12d,%r10d
addl %r12d,%ecx
leaq 4(%rbp),%rbp
addl %r14d,%ecx
movl 24(%rsi),%r12d
movl %r10d,%r13d
movl %ecx,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r11d,%r15d
xorl %r10d,%r13d
rorl $9,%r14d
xorl %eax,%r15d
movl %r12d,24(%rsp)
xorl %ecx,%r14d
andl %r10d,%r15d
rorl $5,%r13d
addl %ebx,%r12d
xorl %eax,%r15d
rorl $11,%r14d
xorl %r10d,%r13d
addl %r15d,%r12d
movl %ecx,%r15d
addl (%rbp),%r12d
xorl %ecx,%r14d
xorl %edx,%r15d
rorl $6,%r13d
movl %edx,%ebx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%ebx
addl %r12d,%r9d
addl %r12d,%ebx
leaq 4(%rbp),%rbp
addl %r14d,%ebx
movl 28(%rsi),%r12d
movl %r9d,%r13d
movl %ebx,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r10d,%edi
xorl %r9d,%r13d
rorl $9,%r14d
xorl %r11d,%edi
movl %r12d,28(%rsp)
xorl %ebx,%r14d
andl %r9d,%edi
rorl $5,%r13d
addl %eax,%r12d
xorl %r11d,%edi
rorl $11,%r14d
xorl %r9d,%r13d
addl %edi,%r12d
movl %ebx,%edi
addl (%rbp),%r12d
xorl %ebx,%r14d
xorl %ecx,%edi
rorl $6,%r13d
movl %ecx,%eax
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%eax
addl %r12d,%r8d
addl %r12d,%eax
leaq 20(%rbp),%rbp
addl %r14d,%eax
movl 32(%rsi),%r12d
movl %r8d,%r13d
movl %eax,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r9d,%r15d
xorl %r8d,%r13d
rorl $9,%r14d
xorl %r10d,%r15d
movl %r12d,32(%rsp)
xorl %eax,%r14d
andl %r8d,%r15d
rorl $5,%r13d
addl %r11d,%r12d
xorl %r10d,%r15d
rorl $11,%r14d
xorl %r8d,%r13d
addl %r15d,%r12d
movl %eax,%r15d
addl (%rbp),%r12d
xorl %eax,%r14d
xorl %ebx,%r15d
rorl $6,%r13d
movl %ebx,%r11d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r11d
addl %r12d,%edx
addl %r12d,%r11d
leaq 4(%rbp),%rbp
addl %r14d,%r11d
movl 36(%rsi),%r12d
movl %edx,%r13d
movl %r11d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r8d,%edi
xorl %edx,%r13d
rorl $9,%r14d
xorl %r9d,%edi
movl %r12d,36(%rsp)
xorl %r11d,%r14d
andl %edx,%edi
rorl $5,%r13d
addl %r10d,%r12d
xorl %r9d,%edi
rorl $11,%r14d
xorl %edx,%r13d
addl %edi,%r12d
movl %r11d,%edi
addl (%rbp),%r12d
xorl %r11d,%r14d
xorl %eax,%edi
rorl $6,%r13d
movl %eax,%r10d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r10d
addl %r12d,%ecx
addl %r12d,%r10d
leaq 4(%rbp),%rbp
addl %r14d,%r10d
movl 40(%rsi),%r12d
movl %ecx,%r13d
movl %r10d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %edx,%r15d
xorl %ecx,%r13d
rorl $9,%r14d
xorl %r8d,%r15d
movl %r12d,40(%rsp)
xorl %r10d,%r14d
andl %ecx,%r15d
rorl $5,%r13d
addl %r9d,%r12d
xorl %r8d,%r15d
rorl $11,%r14d
xorl %ecx,%r13d
addl %r15d,%r12d
movl %r10d,%r15d
addl (%rbp),%r12d
xorl %r10d,%r14d
xorl %r11d,%r15d
rorl $6,%r13d
movl %r11d,%r9d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r9d
addl %r12d,%ebx
addl %r12d,%r9d
leaq 4(%rbp),%rbp
addl %r14d,%r9d
movl 44(%rsi),%r12d
movl %ebx,%r13d
movl %r9d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %ecx,%edi
xorl %ebx,%r13d
rorl $9,%r14d
xorl %edx,%edi
movl %r12d,44(%rsp)
xorl %r9d,%r14d
andl %ebx,%edi
rorl $5,%r13d
addl %r8d,%r12d
xorl %edx,%edi
rorl $11,%r14d
xorl %ebx,%r13d
addl %edi,%r12d
movl %r9d,%edi
addl (%rbp),%r12d
xorl %r9d,%r14d
xorl %r10d,%edi
rorl $6,%r13d
movl %r10d,%r8d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r8d
addl %r12d,%eax
addl %r12d,%r8d
leaq 20(%rbp),%rbp
addl %r14d,%r8d
movl 48(%rsi),%r12d
movl %eax,%r13d
movl %r8d,%r14d
bswapl %r12d
rorl $14,%r13d
movl %ebx,%r15d
xorl %eax,%r13d
rorl $9,%r14d
xorl %ecx,%r15d
movl %r12d,48(%rsp)
xorl %r8d,%r14d
andl %eax,%r15d
rorl $5,%r13d
addl %edx,%r12d
xorl %ecx,%r15d
rorl $11,%r14d
xorl %eax,%r13d
addl %r15d,%r12d
movl %r8d,%r15d
addl (%rbp),%r12d
xorl %r8d,%r14d
xorl %r9d,%r15d
rorl $6,%r13d
movl %r9d,%edx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%edx
addl %r12d,%r11d
addl %r12d,%edx
leaq 4(%rbp),%rbp
addl %r14d,%edx
movl 52(%rsi),%r12d
movl %r11d,%r13d
movl %edx,%r14d
bswapl %r12d
rorl $14,%r13d
movl %eax,%edi
xorl %r11d,%r13d
rorl $9,%r14d
xorl %ebx,%edi
movl %r12d,52(%rsp)
xorl %edx,%r14d
andl %r11d,%edi
rorl $5,%r13d
addl %ecx,%r12d
xorl %ebx,%edi
rorl $11,%r14d
xorl %r11d,%r13d
addl %edi,%r12d
movl %edx,%edi
addl (%rbp),%r12d
xorl %edx,%r14d
xorl %r8d,%edi
rorl $6,%r13d
movl %r8d,%ecx
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%ecx
addl %r12d,%r10d
addl %r12d,%ecx
leaq 4(%rbp),%rbp
addl %r14d,%ecx
movl 56(%rsi),%r12d
movl %r10d,%r13d
movl %ecx,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r11d,%r15d
xorl %r10d,%r13d
rorl $9,%r14d
xorl %eax,%r15d
movl %r12d,56(%rsp)
xorl %ecx,%r14d
andl %r10d,%r15d
rorl $5,%r13d
addl %ebx,%r12d
xorl %eax,%r15d
rorl $11,%r14d
xorl %r10d,%r13d
addl %r15d,%r12d
movl %ecx,%r15d
addl (%rbp),%r12d
xorl %ecx,%r14d
xorl %edx,%r15d
rorl $6,%r13d
movl %edx,%ebx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%ebx
addl %r12d,%r9d
addl %r12d,%ebx
leaq 4(%rbp),%rbp
addl %r14d,%ebx
movl 60(%rsi),%r12d
movl %r9d,%r13d
movl %ebx,%r14d
bswapl %r12d
rorl $14,%r13d
movl %r10d,%edi
xorl %r9d,%r13d
rorl $9,%r14d
xorl %r11d,%edi
movl %r12d,60(%rsp)
xorl %ebx,%r14d
andl %r9d,%edi
rorl $5,%r13d
addl %eax,%r12d
xorl %r11d,%edi
rorl $11,%r14d
xorl %r9d,%r13d
addl %edi,%r12d
movl %ebx,%edi
addl (%rbp),%r12d
xorl %ebx,%r14d
xorl %ecx,%edi
rorl $6,%r13d
movl %ecx,%eax
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%eax
addl %r12d,%r8d
addl %r12d,%eax
leaq 20(%rbp),%rbp
jmp .Lrounds_16_xx
.align 16
.Lrounds_16_xx:
movl 4(%rsp),%r13d
movl 56(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%eax
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 36(%rsp),%r12d
addl 0(%rsp),%r12d
movl %r8d,%r13d
addl %r15d,%r12d
movl %eax,%r14d
rorl $14,%r13d
movl %r9d,%r15d
xorl %r8d,%r13d
rorl $9,%r14d
xorl %r10d,%r15d
movl %r12d,0(%rsp)
xorl %eax,%r14d
andl %r8d,%r15d
rorl $5,%r13d
addl %r11d,%r12d
xorl %r10d,%r15d
rorl $11,%r14d
xorl %r8d,%r13d
addl %r15d,%r12d
movl %eax,%r15d
addl (%rbp),%r12d
xorl %eax,%r14d
xorl %ebx,%r15d
rorl $6,%r13d
movl %ebx,%r11d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r11d
addl %r12d,%edx
addl %r12d,%r11d
leaq 4(%rbp),%rbp
movl 8(%rsp),%r13d
movl 60(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r11d
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 40(%rsp),%r12d
addl 4(%rsp),%r12d
movl %edx,%r13d
addl %edi,%r12d
movl %r11d,%r14d
rorl $14,%r13d
movl %r8d,%edi
xorl %edx,%r13d
rorl $9,%r14d
xorl %r9d,%edi
movl %r12d,4(%rsp)
xorl %r11d,%r14d
andl %edx,%edi
rorl $5,%r13d
addl %r10d,%r12d
xorl %r9d,%edi
rorl $11,%r14d
xorl %edx,%r13d
addl %edi,%r12d
movl %r11d,%edi
addl (%rbp),%r12d
xorl %r11d,%r14d
xorl %eax,%edi
rorl $6,%r13d
movl %eax,%r10d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r10d
addl %r12d,%ecx
addl %r12d,%r10d
leaq 4(%rbp),%rbp
movl 12(%rsp),%r13d
movl 0(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r10d
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 44(%rsp),%r12d
addl 8(%rsp),%r12d
movl %ecx,%r13d
addl %r15d,%r12d
movl %r10d,%r14d
rorl $14,%r13d
movl %edx,%r15d
xorl %ecx,%r13d
rorl $9,%r14d
xorl %r8d,%r15d
movl %r12d,8(%rsp)
xorl %r10d,%r14d
andl %ecx,%r15d
rorl $5,%r13d
addl %r9d,%r12d
xorl %r8d,%r15d
rorl $11,%r14d
xorl %ecx,%r13d
addl %r15d,%r12d
movl %r10d,%r15d
addl (%rbp),%r12d
xorl %r10d,%r14d
xorl %r11d,%r15d
rorl $6,%r13d
movl %r11d,%r9d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r9d
addl %r12d,%ebx
addl %r12d,%r9d
leaq 4(%rbp),%rbp
movl 16(%rsp),%r13d
movl 4(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r9d
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 48(%rsp),%r12d
addl 12(%rsp),%r12d
movl %ebx,%r13d
addl %edi,%r12d
movl %r9d,%r14d
rorl $14,%r13d
movl %ecx,%edi
xorl %ebx,%r13d
rorl $9,%r14d
xorl %edx,%edi
movl %r12d,12(%rsp)
xorl %r9d,%r14d
andl %ebx,%edi
rorl $5,%r13d
addl %r8d,%r12d
xorl %edx,%edi
rorl $11,%r14d
xorl %ebx,%r13d
addl %edi,%r12d
movl %r9d,%edi
addl (%rbp),%r12d
xorl %r9d,%r14d
xorl %r10d,%edi
rorl $6,%r13d
movl %r10d,%r8d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r8d
addl %r12d,%eax
addl %r12d,%r8d
leaq 20(%rbp),%rbp
movl 20(%rsp),%r13d
movl 8(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r8d
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 52(%rsp),%r12d
addl 16(%rsp),%r12d
movl %eax,%r13d
addl %r15d,%r12d
movl %r8d,%r14d
rorl $14,%r13d
movl %ebx,%r15d
xorl %eax,%r13d
rorl $9,%r14d
xorl %ecx,%r15d
movl %r12d,16(%rsp)
xorl %r8d,%r14d
andl %eax,%r15d
rorl $5,%r13d
addl %edx,%r12d
xorl %ecx,%r15d
rorl $11,%r14d
xorl %eax,%r13d
addl %r15d,%r12d
movl %r8d,%r15d
addl (%rbp),%r12d
xorl %r8d,%r14d
xorl %r9d,%r15d
rorl $6,%r13d
movl %r9d,%edx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%edx
addl %r12d,%r11d
addl %r12d,%edx
leaq 4(%rbp),%rbp
movl 24(%rsp),%r13d
movl 12(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%edx
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 56(%rsp),%r12d
addl 20(%rsp),%r12d
movl %r11d,%r13d
addl %edi,%r12d
movl %edx,%r14d
rorl $14,%r13d
movl %eax,%edi
xorl %r11d,%r13d
rorl $9,%r14d
xorl %ebx,%edi
movl %r12d,20(%rsp)
xorl %edx,%r14d
andl %r11d,%edi
rorl $5,%r13d
addl %ecx,%r12d
xorl %ebx,%edi
rorl $11,%r14d
xorl %r11d,%r13d
addl %edi,%r12d
movl %edx,%edi
addl (%rbp),%r12d
xorl %edx,%r14d
xorl %r8d,%edi
rorl $6,%r13d
movl %r8d,%ecx
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%ecx
addl %r12d,%r10d
addl %r12d,%ecx
leaq 4(%rbp),%rbp
movl 28(%rsp),%r13d
movl 16(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%ecx
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 60(%rsp),%r12d
addl 24(%rsp),%r12d
movl %r10d,%r13d
addl %r15d,%r12d
movl %ecx,%r14d
rorl $14,%r13d
movl %r11d,%r15d
xorl %r10d,%r13d
rorl $9,%r14d
xorl %eax,%r15d
movl %r12d,24(%rsp)
xorl %ecx,%r14d
andl %r10d,%r15d
rorl $5,%r13d
addl %ebx,%r12d
xorl %eax,%r15d
rorl $11,%r14d
xorl %r10d,%r13d
addl %r15d,%r12d
movl %ecx,%r15d
addl (%rbp),%r12d
xorl %ecx,%r14d
xorl %edx,%r15d
rorl $6,%r13d
movl %edx,%ebx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%ebx
addl %r12d,%r9d
addl %r12d,%ebx
leaq 4(%rbp),%rbp
movl 32(%rsp),%r13d
movl 20(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%ebx
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 0(%rsp),%r12d
addl 28(%rsp),%r12d
movl %r9d,%r13d
addl %edi,%r12d
movl %ebx,%r14d
rorl $14,%r13d
movl %r10d,%edi
xorl %r9d,%r13d
rorl $9,%r14d
xorl %r11d,%edi
movl %r12d,28(%rsp)
xorl %ebx,%r14d
andl %r9d,%edi
rorl $5,%r13d
addl %eax,%r12d
xorl %r11d,%edi
rorl $11,%r14d
xorl %r9d,%r13d
addl %edi,%r12d
movl %ebx,%edi
addl (%rbp),%r12d
xorl %ebx,%r14d
xorl %ecx,%edi
rorl $6,%r13d
movl %ecx,%eax
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%eax
addl %r12d,%r8d
addl %r12d,%eax
leaq 20(%rbp),%rbp
movl 36(%rsp),%r13d
movl 24(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%eax
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 4(%rsp),%r12d
addl 32(%rsp),%r12d
movl %r8d,%r13d
addl %r15d,%r12d
movl %eax,%r14d
rorl $14,%r13d
movl %r9d,%r15d
xorl %r8d,%r13d
rorl $9,%r14d
xorl %r10d,%r15d
movl %r12d,32(%rsp)
xorl %eax,%r14d
andl %r8d,%r15d
rorl $5,%r13d
addl %r11d,%r12d
xorl %r10d,%r15d
rorl $11,%r14d
xorl %r8d,%r13d
addl %r15d,%r12d
movl %eax,%r15d
addl (%rbp),%r12d
xorl %eax,%r14d
xorl %ebx,%r15d
rorl $6,%r13d
movl %ebx,%r11d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r11d
addl %r12d,%edx
addl %r12d,%r11d
leaq 4(%rbp),%rbp
movl 40(%rsp),%r13d
movl 28(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r11d
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 8(%rsp),%r12d
addl 36(%rsp),%r12d
movl %edx,%r13d
addl %edi,%r12d
movl %r11d,%r14d
rorl $14,%r13d
movl %r8d,%edi
xorl %edx,%r13d
rorl $9,%r14d
xorl %r9d,%edi
movl %r12d,36(%rsp)
xorl %r11d,%r14d
andl %edx,%edi
rorl $5,%r13d
addl %r10d,%r12d
xorl %r9d,%edi
rorl $11,%r14d
xorl %edx,%r13d
addl %edi,%r12d
movl %r11d,%edi
addl (%rbp),%r12d
xorl %r11d,%r14d
xorl %eax,%edi
rorl $6,%r13d
movl %eax,%r10d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r10d
addl %r12d,%ecx
addl %r12d,%r10d
leaq 4(%rbp),%rbp
movl 44(%rsp),%r13d
movl 32(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r10d
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 12(%rsp),%r12d
addl 40(%rsp),%r12d
movl %ecx,%r13d
addl %r15d,%r12d
movl %r10d,%r14d
rorl $14,%r13d
movl %edx,%r15d
xorl %ecx,%r13d
rorl $9,%r14d
xorl %r8d,%r15d
movl %r12d,40(%rsp)
xorl %r10d,%r14d
andl %ecx,%r15d
rorl $5,%r13d
addl %r9d,%r12d
xorl %r8d,%r15d
rorl $11,%r14d
xorl %ecx,%r13d
addl %r15d,%r12d
movl %r10d,%r15d
addl (%rbp),%r12d
xorl %r10d,%r14d
xorl %r11d,%r15d
rorl $6,%r13d
movl %r11d,%r9d
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%r9d
addl %r12d,%ebx
addl %r12d,%r9d
leaq 4(%rbp),%rbp
movl 48(%rsp),%r13d
movl 36(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r9d
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 16(%rsp),%r12d
addl 44(%rsp),%r12d
movl %ebx,%r13d
addl %edi,%r12d
movl %r9d,%r14d
rorl $14,%r13d
movl %ecx,%edi
xorl %ebx,%r13d
rorl $9,%r14d
xorl %edx,%edi
movl %r12d,44(%rsp)
xorl %r9d,%r14d
andl %ebx,%edi
rorl $5,%r13d
addl %r8d,%r12d
xorl %edx,%edi
rorl $11,%r14d
xorl %ebx,%r13d
addl %edi,%r12d
movl %r9d,%edi
addl (%rbp),%r12d
xorl %r9d,%r14d
xorl %r10d,%edi
rorl $6,%r13d
movl %r10d,%r8d
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%r8d
addl %r12d,%eax
addl %r12d,%r8d
leaq 20(%rbp),%rbp
movl 52(%rsp),%r13d
movl 40(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%r8d
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 20(%rsp),%r12d
addl 48(%rsp),%r12d
movl %eax,%r13d
addl %r15d,%r12d
movl %r8d,%r14d
rorl $14,%r13d
movl %ebx,%r15d
xorl %eax,%r13d
rorl $9,%r14d
xorl %ecx,%r15d
movl %r12d,48(%rsp)
xorl %r8d,%r14d
andl %eax,%r15d
rorl $5,%r13d
addl %edx,%r12d
xorl %ecx,%r15d
rorl $11,%r14d
xorl %eax,%r13d
addl %r15d,%r12d
movl %r8d,%r15d
addl (%rbp),%r12d
xorl %r8d,%r14d
xorl %r9d,%r15d
rorl $6,%r13d
movl %r9d,%edx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%edx
addl %r12d,%r11d
addl %r12d,%edx
leaq 4(%rbp),%rbp
movl 56(%rsp),%r13d
movl 44(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%edx
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 24(%rsp),%r12d
addl 52(%rsp),%r12d
movl %r11d,%r13d
addl %edi,%r12d
movl %edx,%r14d
rorl $14,%r13d
movl %eax,%edi
xorl %r11d,%r13d
rorl $9,%r14d
xorl %ebx,%edi
movl %r12d,52(%rsp)
xorl %edx,%r14d
andl %r11d,%edi
rorl $5,%r13d
addl %ecx,%r12d
xorl %ebx,%edi
rorl $11,%r14d
xorl %r11d,%r13d
addl %edi,%r12d
movl %edx,%edi
addl (%rbp),%r12d
xorl %edx,%r14d
xorl %r8d,%edi
rorl $6,%r13d
movl %r8d,%ecx
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%ecx
addl %r12d,%r10d
addl %r12d,%ecx
leaq 4(%rbp),%rbp
movl 60(%rsp),%r13d
movl 48(%rsp),%r15d
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%ecx
movl %r15d,%r14d
rorl $2,%r15d
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%r15d
shrl $10,%r14d
rorl $17,%r15d
xorl %r13d,%r12d
xorl %r14d,%r15d
addl 28(%rsp),%r12d
addl 56(%rsp),%r12d
movl %r10d,%r13d
addl %r15d,%r12d
movl %ecx,%r14d
rorl $14,%r13d
movl %r11d,%r15d
xorl %r10d,%r13d
rorl $9,%r14d
xorl %eax,%r15d
movl %r12d,56(%rsp)
xorl %ecx,%r14d
andl %r10d,%r15d
rorl $5,%r13d
addl %ebx,%r12d
xorl %eax,%r15d
rorl $11,%r14d
xorl %r10d,%r13d
addl %r15d,%r12d
movl %ecx,%r15d
addl (%rbp),%r12d
xorl %ecx,%r14d
xorl %edx,%r15d
rorl $6,%r13d
movl %edx,%ebx
andl %r15d,%edi
rorl $2,%r14d
addl %r13d,%r12d
xorl %edi,%ebx
addl %r12d,%r9d
addl %r12d,%ebx
leaq 4(%rbp),%rbp
movl 0(%rsp),%r13d
movl 52(%rsp),%edi
movl %r13d,%r12d
rorl $11,%r13d
addl %r14d,%ebx
movl %edi,%r14d
rorl $2,%edi
xorl %r12d,%r13d
shrl $3,%r12d
rorl $7,%r13d
xorl %r14d,%edi
shrl $10,%r14d
rorl $17,%edi
xorl %r13d,%r12d
xorl %r14d,%edi
addl 32(%rsp),%r12d
addl 60(%rsp),%r12d
movl %r9d,%r13d
addl %edi,%r12d
movl %ebx,%r14d
rorl $14,%r13d
movl %r10d,%edi
xorl %r9d,%r13d
rorl $9,%r14d
xorl %r11d,%edi
movl %r12d,60(%rsp)
xorl %ebx,%r14d
andl %r9d,%edi
rorl $5,%r13d
addl %eax,%r12d
xorl %r11d,%edi
rorl $11,%r14d
xorl %r9d,%r13d
addl %edi,%r12d
movl %ebx,%edi
addl (%rbp),%r12d
xorl %ebx,%r14d
xorl %ecx,%edi
rorl $6,%r13d
movl %ecx,%eax
andl %edi,%r15d
rorl $2,%r14d
addl %r13d,%r12d
xorl %r15d,%eax
addl %r12d,%r8d
addl %r12d,%eax
leaq 20(%rbp),%rbp
cmpb $0,3(%rbp)
jnz .Lrounds_16_xx
movq 64+0(%rsp),%rdi
addl %r14d,%eax
leaq 64(%rsi),%rsi
addl 0(%rdi),%eax
addl 4(%rdi),%ebx
addl 8(%rdi),%ecx
addl 12(%rdi),%edx
addl 16(%rdi),%r8d
addl 20(%rdi),%r9d
addl 24(%rdi),%r10d
addl 28(%rdi),%r11d
cmpq 64+16(%rsp),%rsi
movl %eax,0(%rdi)
movl %ebx,4(%rdi)
movl %ecx,8(%rdi)
movl %edx,12(%rdi)
movl %r8d,16(%rdi)
movl %r9d,20(%rdi)
movl %r10d,24(%rdi)
movl %r11d,28(%rdi)
jb .Lloop
movq 88(%rsp),%rsi
.cfi_def_cfa %rsi,8
movq -48(%rsi),%r15
.cfi_restore %r15
movq -40(%rsi),%r14
.cfi_restore %r14
movq -32(%rsi),%r13
.cfi_restore %r13
movq -24(%rsi),%r12
.cfi_restore %r12
movq -16(%rsi),%rbp
.cfi_restore %rbp
movq -8(%rsi),%rbx
.cfi_restore %rbx
leaq (%rsi),%rsp
.cfi_def_cfa_register %rsp
.Lepilogue:
ret
.cfi_endproc
.size sha256_block_data_order_nohw,.-sha256_block_data_order_nohw
.section .rodata
.align 64
.type K256,@object
K256:
.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
.long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff
.long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff
.long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908
.long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908
.byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
.text
.globl sha256_block_data_order_hw
.hidden sha256_block_data_order_hw
.type sha256_block_data_order_hw,@function
.align 64
sha256_block_data_order_hw:
.cfi_startproc
_CET_ENDBR
leaq K256+128(%rip),%rcx
movdqu (%rdi),%xmm1
movdqu 16(%rdi),%xmm2
movdqa 512-128(%rcx),%xmm7
pshufd $0x1b,%xmm1,%xmm0
pshufd $0xb1,%xmm1,%xmm1
pshufd $0x1b,%xmm2,%xmm2
movdqa %xmm7,%xmm8
.byte 102,15,58,15,202,8
punpcklqdq %xmm0,%xmm2
jmp .Loop_shaext
.align 16
.Loop_shaext:
movdqu (%rsi),%xmm3
movdqu 16(%rsi),%xmm4
movdqu 32(%rsi),%xmm5
.byte 102,15,56,0,223
movdqu 48(%rsi),%xmm6
movdqa 0-128(%rcx),%xmm0
paddd %xmm3,%xmm0
.byte 102,15,56,0,231
movdqa %xmm2,%xmm10
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
nop
movdqa %xmm1,%xmm9
.byte 15,56,203,202
movdqa 32-128(%rcx),%xmm0
paddd %xmm4,%xmm0
.byte 102,15,56,0,239
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
leaq 64(%rsi),%rsi
.byte 15,56,204,220
.byte 15,56,203,202
movdqa 64-128(%rcx),%xmm0
paddd %xmm5,%xmm0
.byte 102,15,56,0,247
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm6,%xmm7
.byte 102,15,58,15,253,4
nop
paddd %xmm7,%xmm3
.byte 15,56,204,229
.byte 15,56,203,202
movdqa 96-128(%rcx),%xmm0
paddd %xmm6,%xmm0
.byte 15,56,205,222
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm3,%xmm7
.byte 102,15,58,15,254,4
nop
paddd %xmm7,%xmm4
.byte 15,56,204,238
.byte 15,56,203,202
movdqa 128-128(%rcx),%xmm0
paddd %xmm3,%xmm0
.byte 15,56,205,227
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm4,%xmm7
.byte 102,15,58,15,251,4
nop
paddd %xmm7,%xmm5
.byte 15,56,204,243
.byte 15,56,203,202
movdqa 160-128(%rcx),%xmm0
paddd %xmm4,%xmm0
.byte 15,56,205,236
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm5,%xmm7
.byte 102,15,58,15,252,4
nop
paddd %xmm7,%xmm6
.byte 15,56,204,220
.byte 15,56,203,202
movdqa 192-128(%rcx),%xmm0
paddd %xmm5,%xmm0
.byte 15,56,205,245
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm6,%xmm7
.byte 102,15,58,15,253,4
nop
paddd %xmm7,%xmm3
.byte 15,56,204,229
.byte 15,56,203,202
movdqa 224-128(%rcx),%xmm0
paddd %xmm6,%xmm0
.byte 15,56,205,222
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm3,%xmm7
.byte 102,15,58,15,254,4
nop
paddd %xmm7,%xmm4
.byte 15,56,204,238
.byte 15,56,203,202
movdqa 256-128(%rcx),%xmm0
paddd %xmm3,%xmm0
.byte 15,56,205,227
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm4,%xmm7
.byte 102,15,58,15,251,4
nop
paddd %xmm7,%xmm5
.byte 15,56,204,243
.byte 15,56,203,202
movdqa 288-128(%rcx),%xmm0
paddd %xmm4,%xmm0
.byte 15,56,205,236
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm5,%xmm7
.byte 102,15,58,15,252,4
nop
paddd %xmm7,%xmm6
.byte 15,56,204,220
.byte 15,56,203,202
movdqa 320-128(%rcx),%xmm0
paddd %xmm5,%xmm0
.byte 15,56,205,245
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm6,%xmm7
.byte 102,15,58,15,253,4
nop
paddd %xmm7,%xmm3
.byte 15,56,204,229
.byte 15,56,203,202
movdqa 352-128(%rcx),%xmm0
paddd %xmm6,%xmm0
.byte 15,56,205,222
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm3,%xmm7
.byte 102,15,58,15,254,4
nop
paddd %xmm7,%xmm4
.byte 15,56,204,238
.byte 15,56,203,202
movdqa 384-128(%rcx),%xmm0
paddd %xmm3,%xmm0
.byte 15,56,205,227
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm4,%xmm7
.byte 102,15,58,15,251,4
nop
paddd %xmm7,%xmm5
.byte 15,56,204,243
.byte 15,56,203,202
movdqa 416-128(%rcx),%xmm0
paddd %xmm4,%xmm0
.byte 15,56,205,236
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
movdqa %xmm5,%xmm7
.byte 102,15,58,15,252,4
.byte 15,56,203,202
paddd %xmm7,%xmm6
movdqa 448-128(%rcx),%xmm0
paddd %xmm5,%xmm0
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
.byte 15,56,205,245
movdqa %xmm8,%xmm7
.byte 15,56,203,202
movdqa 480-128(%rcx),%xmm0
paddd %xmm6,%xmm0
nop
.byte 15,56,203,209
pshufd $0x0e,%xmm0,%xmm0
decq %rdx
nop
.byte 15,56,203,202
paddd %xmm10,%xmm2
paddd %xmm9,%xmm1
jnz .Loop_shaext
pshufd $0xb1,%xmm2,%xmm2
pshufd $0x1b,%xmm1,%xmm7
pshufd $0xb1,%xmm1,%xmm1
punpckhqdq %xmm2,%xmm1
.byte 102,15,58,15,215,8
movdqu %xmm1,(%rdi)
movdqu %xmm2,16(%rdi)
ret
.cfi_endproc
.size sha256_block_data_order_hw,.-sha256_block_data_order_hw
.globl sha256_block_data_order_ssse3
.hidden sha256_block_data_order_ssse3
.type sha256_block_data_order_ssse3,@function
.align 64
sha256_block_data_order_ssse3:
.cfi_startproc
_CET_ENDBR
movq %rsp,%rax
.cfi_def_cfa_register %rax
pushq %rbx
.cfi_offset %rbx,-16
pushq %rbp
.cfi_offset %rbp,-24
pushq %r12
.cfi_offset %r12,-32
pushq %r13
.cfi_offset %r13,-40
pushq %r14
.cfi_offset %r14,-48
pushq %r15
.cfi_offset %r15,-56
shlq $4,%rdx
subq $96,%rsp
leaq (%rsi,%rdx,4),%rdx
andq $-64,%rsp
movq %rdi,64+0(%rsp)
movq %rsi,64+8(%rsp)
movq %rdx,64+16(%rsp)
movq %rax,88(%rsp)
.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08
.Lprologue_ssse3:
movl 0(%rdi),%eax
movl 4(%rdi),%ebx
movl 8(%rdi),%ecx
movl 12(%rdi),%edx
movl 16(%rdi),%r8d
movl 20(%rdi),%r9d
movl 24(%rdi),%r10d
movl 28(%rdi),%r11d
jmp .Lloop_ssse3
.align 16
.Lloop_ssse3:
movdqa K256+512(%rip),%xmm7
movdqu 0(%rsi),%xmm0
movdqu 16(%rsi),%xmm1
movdqu 32(%rsi),%xmm2
.byte 102,15,56,0,199
movdqu 48(%rsi),%xmm3
leaq K256(%rip),%rbp
.byte 102,15,56,0,207
movdqa 0(%rbp),%xmm4
movdqa 32(%rbp),%xmm5
.byte 102,15,56,0,215
paddd %xmm0,%xmm4
movdqa 64(%rbp),%xmm6
.byte 102,15,56,0,223
movdqa 96(%rbp),%xmm7
paddd %xmm1,%xmm5
paddd %xmm2,%xmm6
paddd %xmm3,%xmm7
movdqa %xmm4,0(%rsp)
movl %eax,%r14d
movdqa %xmm5,16(%rsp)
movl %ebx,%edi
movdqa %xmm6,32(%rsp)
xorl %ecx,%edi
movdqa %xmm7,48(%rsp)
movl %r8d,%r13d
jmp .Lssse3_00_47
.align 16
.Lssse3_00_47:
subq $-128,%rbp
rorl $14,%r13d
movdqa %xmm1,%xmm4
movl %r14d,%eax
movl %r9d,%r12d
movdqa %xmm3,%xmm7
rorl $9,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
rorl $5,%r13d
xorl %eax,%r14d
.byte 102,15,58,15,224,4
andl %r8d,%r12d
xorl %r8d,%r13d
.byte 102,15,58,15,250,4
addl 0(%rsp),%r11d
movl %eax,%r15d
xorl %r10d,%r12d
rorl $11,%r14d
movdqa %xmm4,%xmm5
xorl %ebx,%r15d
addl %r12d,%r11d
movdqa %xmm4,%xmm6
rorl $6,%r13d
andl %r15d,%edi
psrld $3,%xmm4
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
paddd %xmm7,%xmm0
rorl $2,%r14d
addl %r11d,%edx
psrld $7,%xmm6
addl %edi,%r11d
movl %edx,%r13d
pshufd $250,%xmm3,%xmm7
addl %r11d,%r14d
rorl $14,%r13d
pslld $14,%xmm5
movl %r14d,%r11d
movl %r8d,%r12d
pxor %xmm6,%xmm4
rorl $9,%r14d
xorl %edx,%r13d
xorl %r9d,%r12d
rorl $5,%r13d
psrld $11,%xmm6
xorl %r11d,%r14d
pxor %xmm5,%xmm4
andl %edx,%r12d
xorl %edx,%r13d
pslld $11,%xmm5
addl 4(%rsp),%r10d
movl %r11d,%edi
pxor %xmm6,%xmm4
xorl %r9d,%r12d
rorl $11,%r14d
movdqa %xmm7,%xmm6
xorl %eax,%edi
addl %r12d,%r10d
pxor %xmm5,%xmm4
rorl $6,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
psrld $10,%xmm7
addl %r13d,%r10d
xorl %eax,%r15d
paddd %xmm4,%xmm0
rorl $2,%r14d
addl %r10d,%ecx
psrlq $17,%xmm6
addl %r15d,%r10d
movl %ecx,%r13d
addl %r10d,%r14d
pxor %xmm6,%xmm7
rorl $14,%r13d
movl %r14d,%r10d
movl %edx,%r12d
rorl $9,%r14d
psrlq $2,%xmm6
xorl %ecx,%r13d
xorl %r8d,%r12d
pxor %xmm6,%xmm7
rorl $5,%r13d
xorl %r10d,%r14d
andl %ecx,%r12d
pshufd $128,%xmm7,%xmm7
xorl %ecx,%r13d
addl 8(%rsp),%r9d
movl %r10d,%r15d
psrldq $8,%xmm7
xorl %r8d,%r12d
rorl $11,%r14d
xorl %r11d,%r15d
addl %r12d,%r9d
rorl $6,%r13d
paddd %xmm7,%xmm0
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
pshufd $80,%xmm0,%xmm7
xorl %r11d,%edi
rorl $2,%r14d
addl %r9d,%ebx
movdqa %xmm7,%xmm6
addl %edi,%r9d
movl %ebx,%r13d
psrld $10,%xmm7
addl %r9d,%r14d
rorl $14,%r13d
psrlq $17,%xmm6
movl %r14d,%r9d
movl %ecx,%r12d
pxor %xmm6,%xmm7
rorl $9,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
rorl $5,%r13d
xorl %r9d,%r14d
psrlq $2,%xmm6
andl %ebx,%r12d
xorl %ebx,%r13d
addl 12(%rsp),%r8d
pxor %xmm6,%xmm7
movl %r9d,%edi
xorl %edx,%r12d
rorl $11,%r14d
pshufd $8,%xmm7,%xmm7
xorl %r10d,%edi
addl %r12d,%r8d
movdqa 0(%rbp),%xmm6
rorl $6,%r13d
andl %edi,%r15d
pslldq $8,%xmm7
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
paddd %xmm7,%xmm0
rorl $2,%r14d
addl %r8d,%eax
addl %r15d,%r8d
paddd %xmm0,%xmm6
movl %eax,%r13d
addl %r8d,%r14d
movdqa %xmm6,0(%rsp)
rorl $14,%r13d
movdqa %xmm2,%xmm4
movl %r14d,%r8d
movl %ebx,%r12d
movdqa %xmm0,%xmm7
rorl $9,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
rorl $5,%r13d
xorl %r8d,%r14d
.byte 102,15,58,15,225,4
andl %eax,%r12d
xorl %eax,%r13d
.byte 102,15,58,15,251,4
addl 16(%rsp),%edx
movl %r8d,%r15d
xorl %ecx,%r12d
rorl $11,%r14d
movdqa %xmm4,%xmm5
xorl %r9d,%r15d
addl %r12d,%edx
movdqa %xmm4,%xmm6
rorl $6,%r13d
andl %r15d,%edi
psrld $3,%xmm4
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
paddd %xmm7,%xmm1
rorl $2,%r14d
addl %edx,%r11d
psrld $7,%xmm6
addl %edi,%edx
movl %r11d,%r13d
pshufd $250,%xmm0,%xmm7
addl %edx,%r14d
rorl $14,%r13d
pslld $14,%xmm5
movl %r14d,%edx
movl %eax,%r12d
pxor %xmm6,%xmm4
rorl $9,%r14d
xorl %r11d,%r13d
xorl %ebx,%r12d
rorl $5,%r13d
psrld $11,%xmm6
xorl %edx,%r14d
pxor %xmm5,%xmm4
andl %r11d,%r12d
xorl %r11d,%r13d
pslld $11,%xmm5
addl 20(%rsp),%ecx
movl %edx,%edi
pxor %xmm6,%xmm4
xorl %ebx,%r12d
rorl $11,%r14d
movdqa %xmm7,%xmm6
xorl %r8d,%edi
addl %r12d,%ecx
pxor %xmm5,%xmm4
rorl $6,%r13d
andl %edi,%r15d
xorl %edx,%r14d
psrld $10,%xmm7
addl %r13d,%ecx
xorl %r8d,%r15d
paddd %xmm4,%xmm1
rorl $2,%r14d
addl %ecx,%r10d
psrlq $17,%xmm6
addl %r15d,%ecx
movl %r10d,%r13d
addl %ecx,%r14d
pxor %xmm6,%xmm7
rorl $14,%r13d
movl %r14d,%ecx
movl %r11d,%r12d
rorl $9,%r14d
psrlq $2,%xmm6
xorl %r10d,%r13d
xorl %eax,%r12d
pxor %xmm6,%xmm7
rorl $5,%r13d
xorl %ecx,%r14d
andl %r10d,%r12d
pshufd $128,%xmm7,%xmm7
xorl %r10d,%r13d
addl 24(%rsp),%ebx
movl %ecx,%r15d
psrldq $8,%xmm7
xorl %eax,%r12d
rorl $11,%r14d
xorl %edx,%r15d
addl %r12d,%ebx
rorl $6,%r13d
paddd %xmm7,%xmm1
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
pshufd $80,%xmm1,%xmm7
xorl %edx,%edi
rorl $2,%r14d
addl %ebx,%r9d
movdqa %xmm7,%xmm6
addl %edi,%ebx
movl %r9d,%r13d
psrld $10,%xmm7
addl %ebx,%r14d
rorl $14,%r13d
psrlq $17,%xmm6
movl %r14d,%ebx
movl %r10d,%r12d
pxor %xmm6,%xmm7
rorl $9,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
rorl $5,%r13d
xorl %ebx,%r14d
psrlq $2,%xmm6
andl %r9d,%r12d
xorl %r9d,%r13d
addl 28(%rsp),%eax
pxor %xmm6,%xmm7
movl %ebx,%edi
xorl %r11d,%r12d
rorl $11,%r14d
pshufd $8,%xmm7,%xmm7
xorl %ecx,%edi
addl %r12d,%eax
movdqa 32(%rbp),%xmm6
rorl $6,%r13d
andl %edi,%r15d
pslldq $8,%xmm7
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
paddd %xmm7,%xmm1
rorl $2,%r14d
addl %eax,%r8d
addl %r15d,%eax
paddd %xmm1,%xmm6
movl %r8d,%r13d
addl %eax,%r14d
movdqa %xmm6,16(%rsp)
rorl $14,%r13d
movdqa %xmm3,%xmm4
movl %r14d,%eax
movl %r9d,%r12d
movdqa %xmm1,%xmm7
rorl $9,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
rorl $5,%r13d
xorl %eax,%r14d
.byte 102,15,58,15,226,4
andl %r8d,%r12d
xorl %r8d,%r13d
.byte 102,15,58,15,248,4
addl 32(%rsp),%r11d
movl %eax,%r15d
xorl %r10d,%r12d
rorl $11,%r14d
movdqa %xmm4,%xmm5
xorl %ebx,%r15d
addl %r12d,%r11d
movdqa %xmm4,%xmm6
rorl $6,%r13d
andl %r15d,%edi
psrld $3,%xmm4
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
paddd %xmm7,%xmm2
rorl $2,%r14d
addl %r11d,%edx
psrld $7,%xmm6
addl %edi,%r11d
movl %edx,%r13d
pshufd $250,%xmm1,%xmm7
addl %r11d,%r14d
rorl $14,%r13d
pslld $14,%xmm5
movl %r14d,%r11d
movl %r8d,%r12d
pxor %xmm6,%xmm4
rorl $9,%r14d
xorl %edx,%r13d
xorl %r9d,%r12d
rorl $5,%r13d
psrld $11,%xmm6
xorl %r11d,%r14d
pxor %xmm5,%xmm4
andl %edx,%r12d
xorl %edx,%r13d
pslld $11,%xmm5
addl 36(%rsp),%r10d
movl %r11d,%edi
pxor %xmm6,%xmm4
xorl %r9d,%r12d
rorl $11,%r14d
movdqa %xmm7,%xmm6
xorl %eax,%edi
addl %r12d,%r10d
pxor %xmm5,%xmm4
rorl $6,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
psrld $10,%xmm7
addl %r13d,%r10d
xorl %eax,%r15d
paddd %xmm4,%xmm2
rorl $2,%r14d
addl %r10d,%ecx
psrlq $17,%xmm6
addl %r15d,%r10d
movl %ecx,%r13d
addl %r10d,%r14d
pxor %xmm6,%xmm7
rorl $14,%r13d
movl %r14d,%r10d
movl %edx,%r12d
rorl $9,%r14d
psrlq $2,%xmm6
xorl %ecx,%r13d
xorl %r8d,%r12d
pxor %xmm6,%xmm7
rorl $5,%r13d
xorl %r10d,%r14d
andl %ecx,%r12d
pshufd $128,%xmm7,%xmm7
xorl %ecx,%r13d
addl 40(%rsp),%r9d
movl %r10d,%r15d
psrldq $8,%xmm7
xorl %r8d,%r12d
rorl $11,%r14d
xorl %r11d,%r15d
addl %r12d,%r9d
rorl $6,%r13d
paddd %xmm7,%xmm2
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
pshufd $80,%xmm2,%xmm7
xorl %r11d,%edi
rorl $2,%r14d
addl %r9d,%ebx
movdqa %xmm7,%xmm6
addl %edi,%r9d
movl %ebx,%r13d
psrld $10,%xmm7
addl %r9d,%r14d
rorl $14,%r13d
psrlq $17,%xmm6
movl %r14d,%r9d
movl %ecx,%r12d
pxor %xmm6,%xmm7
rorl $9,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
rorl $5,%r13d
xorl %r9d,%r14d
psrlq $2,%xmm6
andl %ebx,%r12d
xorl %ebx,%r13d
addl 44(%rsp),%r8d
pxor %xmm6,%xmm7
movl %r9d,%edi
xorl %edx,%r12d
rorl $11,%r14d
pshufd $8,%xmm7,%xmm7
xorl %r10d,%edi
addl %r12d,%r8d
movdqa 64(%rbp),%xmm6
rorl $6,%r13d
andl %edi,%r15d
pslldq $8,%xmm7
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
paddd %xmm7,%xmm2
rorl $2,%r14d
addl %r8d,%eax
addl %r15d,%r8d
paddd %xmm2,%xmm6
movl %eax,%r13d
addl %r8d,%r14d
movdqa %xmm6,32(%rsp)
rorl $14,%r13d
movdqa %xmm0,%xmm4
movl %r14d,%r8d
movl %ebx,%r12d
movdqa %xmm2,%xmm7
rorl $9,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
rorl $5,%r13d
xorl %r8d,%r14d
.byte 102,15,58,15,227,4
andl %eax,%r12d
xorl %eax,%r13d
.byte 102,15,58,15,249,4
addl 48(%rsp),%edx
movl %r8d,%r15d
xorl %ecx,%r12d
rorl $11,%r14d
movdqa %xmm4,%xmm5
xorl %r9d,%r15d
addl %r12d,%edx
movdqa %xmm4,%xmm6
rorl $6,%r13d
andl %r15d,%edi
psrld $3,%xmm4
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
paddd %xmm7,%xmm3
rorl $2,%r14d
addl %edx,%r11d
psrld $7,%xmm6
addl %edi,%edx
movl %r11d,%r13d
pshufd $250,%xmm2,%xmm7
addl %edx,%r14d
rorl $14,%r13d
pslld $14,%xmm5
movl %r14d,%edx
movl %eax,%r12d
pxor %xmm6,%xmm4
rorl $9,%r14d
xorl %r11d,%r13d
xorl %ebx,%r12d
rorl $5,%r13d
psrld $11,%xmm6
xorl %edx,%r14d
pxor %xmm5,%xmm4
andl %r11d,%r12d
xorl %r11d,%r13d
pslld $11,%xmm5
addl 52(%rsp),%ecx
movl %edx,%edi
pxor %xmm6,%xmm4
xorl %ebx,%r12d
rorl $11,%r14d
movdqa %xmm7,%xmm6
xorl %r8d,%edi
addl %r12d,%ecx
pxor %xmm5,%xmm4
rorl $6,%r13d
andl %edi,%r15d
xorl %edx,%r14d
psrld $10,%xmm7
addl %r13d,%ecx
xorl %r8d,%r15d
paddd %xmm4,%xmm3
rorl $2,%r14d
addl %ecx,%r10d
psrlq $17,%xmm6
addl %r15d,%ecx
movl %r10d,%r13d
addl %ecx,%r14d
pxor %xmm6,%xmm7
rorl $14,%r13d
movl %r14d,%ecx
movl %r11d,%r12d
rorl $9,%r14d
psrlq $2,%xmm6
xorl %r10d,%r13d
xorl %eax,%r12d
pxor %xmm6,%xmm7
rorl $5,%r13d
xorl %ecx,%r14d
andl %r10d,%r12d
pshufd $128,%xmm7,%xmm7
xorl %r10d,%r13d
addl 56(%rsp),%ebx
movl %ecx,%r15d
psrldq $8,%xmm7
xorl %eax,%r12d
rorl $11,%r14d
xorl %edx,%r15d
addl %r12d,%ebx
rorl $6,%r13d
paddd %xmm7,%xmm3
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
pshufd $80,%xmm3,%xmm7
xorl %edx,%edi
rorl $2,%r14d
addl %ebx,%r9d
movdqa %xmm7,%xmm6
addl %edi,%ebx
movl %r9d,%r13d
psrld $10,%xmm7
addl %ebx,%r14d
rorl $14,%r13d
psrlq $17,%xmm6
movl %r14d,%ebx
movl %r10d,%r12d
pxor %xmm6,%xmm7
rorl $9,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
rorl $5,%r13d
xorl %ebx,%r14d
psrlq $2,%xmm6
andl %r9d,%r12d
xorl %r9d,%r13d
addl 60(%rsp),%eax
pxor %xmm6,%xmm7
movl %ebx,%edi
xorl %r11d,%r12d
rorl $11,%r14d
pshufd $8,%xmm7,%xmm7
xorl %ecx,%edi
addl %r12d,%eax
movdqa 96(%rbp),%xmm6
rorl $6,%r13d
andl %edi,%r15d
pslldq $8,%xmm7
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
paddd %xmm7,%xmm3
rorl $2,%r14d
addl %eax,%r8d
addl %r15d,%eax
paddd %xmm3,%xmm6
movl %r8d,%r13d
addl %eax,%r14d
movdqa %xmm6,48(%rsp)
cmpb $0,131(%rbp)
jne .Lssse3_00_47
rorl $14,%r13d
movl %r14d,%eax
movl %r9d,%r12d
rorl $9,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
rorl $5,%r13d
xorl %eax,%r14d
andl %r8d,%r12d
xorl %r8d,%r13d
addl 0(%rsp),%r11d
movl %eax,%r15d
xorl %r10d,%r12d
rorl $11,%r14d
xorl %ebx,%r15d
addl %r12d,%r11d
rorl $6,%r13d
andl %r15d,%edi
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
rorl $2,%r14d
addl %r11d,%edx
addl %edi,%r11d
movl %edx,%r13d
addl %r11d,%r14d
rorl $14,%r13d
movl %r14d,%r11d
movl %r8d,%r12d
rorl $9,%r14d
xorl %edx,%r13d
xorl %r9d,%r12d
rorl $5,%r13d
xorl %r11d,%r14d
andl %edx,%r12d
xorl %edx,%r13d
addl 4(%rsp),%r10d
movl %r11d,%edi
xorl %r9d,%r12d
rorl $11,%r14d
xorl %eax,%edi
addl %r12d,%r10d
rorl $6,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
addl %r13d,%r10d
xorl %eax,%r15d
rorl $2,%r14d
addl %r10d,%ecx
addl %r15d,%r10d
movl %ecx,%r13d
addl %r10d,%r14d
rorl $14,%r13d
movl %r14d,%r10d
movl %edx,%r12d
rorl $9,%r14d
xorl %ecx,%r13d
xorl %r8d,%r12d
rorl $5,%r13d
xorl %r10d,%r14d
andl %ecx,%r12d
xorl %ecx,%r13d
addl 8(%rsp),%r9d
movl %r10d,%r15d
xorl %r8d,%r12d
rorl $11,%r14d
xorl %r11d,%r15d
addl %r12d,%r9d
rorl $6,%r13d
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
xorl %r11d,%edi
rorl $2,%r14d
addl %r9d,%ebx
addl %edi,%r9d
movl %ebx,%r13d
addl %r9d,%r14d
rorl $14,%r13d
movl %r14d,%r9d
movl %ecx,%r12d
rorl $9,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
rorl $5,%r13d
xorl %r9d,%r14d
andl %ebx,%r12d
xorl %ebx,%r13d
addl 12(%rsp),%r8d
movl %r9d,%edi
xorl %edx,%r12d
rorl $11,%r14d
xorl %r10d,%edi
addl %r12d,%r8d
rorl $6,%r13d
andl %edi,%r15d
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
rorl $2,%r14d
addl %r8d,%eax
addl %r15d,%r8d
movl %eax,%r13d
addl %r8d,%r14d
rorl $14,%r13d
movl %r14d,%r8d
movl %ebx,%r12d
rorl $9,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
rorl $5,%r13d
xorl %r8d,%r14d
andl %eax,%r12d
xorl %eax,%r13d
addl 16(%rsp),%edx
movl %r8d,%r15d
xorl %ecx,%r12d
rorl $11,%r14d
xorl %r9d,%r15d
addl %r12d,%edx
rorl $6,%r13d
andl %r15d,%edi
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
rorl $2,%r14d
addl %edx,%r11d
addl %edi,%edx
movl %r11d,%r13d
addl %edx,%r14d
rorl $14,%r13d
movl %r14d,%edx
movl %eax,%r12d
rorl $9,%r14d
xorl %r11d,%r13d
xorl %ebx,%r12d
rorl $5,%r13d
xorl %edx,%r14d
andl %r11d,%r12d
xorl %r11d,%r13d
addl 20(%rsp),%ecx
movl %edx,%edi
xorl %ebx,%r12d
rorl $11,%r14d
xorl %r8d,%edi
addl %r12d,%ecx
rorl $6,%r13d
andl %edi,%r15d
xorl %edx,%r14d
addl %r13d,%ecx
xorl %r8d,%r15d
rorl $2,%r14d
addl %ecx,%r10d
addl %r15d,%ecx
movl %r10d,%r13d
addl %ecx,%r14d
rorl $14,%r13d
movl %r14d,%ecx
movl %r11d,%r12d
rorl $9,%r14d
xorl %r10d,%r13d
xorl %eax,%r12d
rorl $5,%r13d
xorl %ecx,%r14d
andl %r10d,%r12d
xorl %r10d,%r13d
addl 24(%rsp),%ebx
movl %ecx,%r15d
xorl %eax,%r12d
rorl $11,%r14d
xorl %edx,%r15d
addl %r12d,%ebx
rorl $6,%r13d
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
xorl %edx,%edi
rorl $2,%r14d
addl %ebx,%r9d
addl %edi,%ebx
movl %r9d,%r13d
addl %ebx,%r14d
rorl $14,%r13d
movl %r14d,%ebx
movl %r10d,%r12d
rorl $9,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
rorl $5,%r13d
xorl %ebx,%r14d
andl %r9d,%r12d
xorl %r9d,%r13d
addl 28(%rsp),%eax
movl %ebx,%edi
xorl %r11d,%r12d
rorl $11,%r14d
xorl %ecx,%edi
addl %r12d,%eax
rorl $6,%r13d
andl %edi,%r15d
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
rorl $2,%r14d
addl %eax,%r8d
addl %r15d,%eax
movl %r8d,%r13d
addl %eax,%r14d
rorl $14,%r13d
movl %r14d,%eax
movl %r9d,%r12d
rorl $9,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
rorl $5,%r13d
xorl %eax,%r14d
andl %r8d,%r12d
xorl %r8d,%r13d
addl 32(%rsp),%r11d
movl %eax,%r15d
xorl %r10d,%r12d
rorl $11,%r14d
xorl %ebx,%r15d
addl %r12d,%r11d
rorl $6,%r13d
andl %r15d,%edi
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
rorl $2,%r14d
addl %r11d,%edx
addl %edi,%r11d
movl %edx,%r13d
addl %r11d,%r14d
rorl $14,%r13d
movl %r14d,%r11d
movl %r8d,%r12d
rorl $9,%r14d
xorl %edx,%r13d
xorl %r9d,%r12d
rorl $5,%r13d
xorl %r11d,%r14d
andl %edx,%r12d
xorl %edx,%r13d
addl 36(%rsp),%r10d
movl %r11d,%edi
xorl %r9d,%r12d
rorl $11,%r14d
xorl %eax,%edi
addl %r12d,%r10d
rorl $6,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
addl %r13d,%r10d
xorl %eax,%r15d
rorl $2,%r14d
addl %r10d,%ecx
addl %r15d,%r10d
movl %ecx,%r13d
addl %r10d,%r14d
rorl $14,%r13d
movl %r14d,%r10d
movl %edx,%r12d
rorl $9,%r14d
xorl %ecx,%r13d
xorl %r8d,%r12d
rorl $5,%r13d
xorl %r10d,%r14d
andl %ecx,%r12d
xorl %ecx,%r13d
addl 40(%rsp),%r9d
movl %r10d,%r15d
xorl %r8d,%r12d
rorl $11,%r14d
xorl %r11d,%r15d
addl %r12d,%r9d
rorl $6,%r13d
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
xorl %r11d,%edi
rorl $2,%r14d
addl %r9d,%ebx
addl %edi,%r9d
movl %ebx,%r13d
addl %r9d,%r14d
rorl $14,%r13d
movl %r14d,%r9d
movl %ecx,%r12d
rorl $9,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
rorl $5,%r13d
xorl %r9d,%r14d
andl %ebx,%r12d
xorl %ebx,%r13d
addl 44(%rsp),%r8d
movl %r9d,%edi
xorl %edx,%r12d
rorl $11,%r14d
xorl %r10d,%edi
addl %r12d,%r8d
rorl $6,%r13d
andl %edi,%r15d
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
rorl $2,%r14d
addl %r8d,%eax
addl %r15d,%r8d
movl %eax,%r13d
addl %r8d,%r14d
rorl $14,%r13d
movl %r14d,%r8d
movl %ebx,%r12d
rorl $9,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
rorl $5,%r13d
xorl %r8d,%r14d
andl %eax,%r12d
xorl %eax,%r13d
addl 48(%rsp),%edx
movl %r8d,%r15d
xorl %ecx,%r12d
rorl $11,%r14d
xorl %r9d,%r15d
addl %r12d,%edx
rorl $6,%r13d
andl %r15d,%edi
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
rorl $2,%r14d
addl %edx,%r11d
addl %edi,%edx
movl %r11d,%r13d
addl %edx,%r14d
rorl $14,%r13d
movl %r14d,%edx
movl %eax,%r12d
rorl $9,%r14d
xorl %r11d,%r13d
xorl %ebx,%r12d
rorl $5,%r13d
xorl %edx,%r14d
andl %r11d,%r12d
xorl %r11d,%r13d
addl 52(%rsp),%ecx
movl %edx,%edi
xorl %ebx,%r12d
rorl $11,%r14d
xorl %r8d,%edi
addl %r12d,%ecx
rorl $6,%r13d
andl %edi,%r15d
xorl %edx,%r14d
addl %r13d,%ecx
xorl %r8d,%r15d
rorl $2,%r14d
addl %ecx,%r10d
addl %r15d,%ecx
movl %r10d,%r13d
addl %ecx,%r14d
rorl $14,%r13d
movl %r14d,%ecx
movl %r11d,%r12d
rorl $9,%r14d
xorl %r10d,%r13d
xorl %eax,%r12d
rorl $5,%r13d
xorl %ecx,%r14d
andl %r10d,%r12d
xorl %r10d,%r13d
addl 56(%rsp),%ebx
movl %ecx,%r15d
xorl %eax,%r12d
rorl $11,%r14d
xorl %edx,%r15d
addl %r12d,%ebx
rorl $6,%r13d
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
xorl %edx,%edi
rorl $2,%r14d
addl %ebx,%r9d
addl %edi,%ebx
movl %r9d,%r13d
addl %ebx,%r14d
rorl $14,%r13d
movl %r14d,%ebx
movl %r10d,%r12d
rorl $9,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
rorl $5,%r13d
xorl %ebx,%r14d
andl %r9d,%r12d
xorl %r9d,%r13d
addl 60(%rsp),%eax
movl %ebx,%edi
xorl %r11d,%r12d
rorl $11,%r14d
xorl %ecx,%edi
addl %r12d,%eax
rorl $6,%r13d
andl %edi,%r15d
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
rorl $2,%r14d
addl %eax,%r8d
addl %r15d,%eax
movl %r8d,%r13d
addl %eax,%r14d
movq 64+0(%rsp),%rdi
movl %r14d,%eax
addl 0(%rdi),%eax
leaq 64(%rsi),%rsi
addl 4(%rdi),%ebx
addl 8(%rdi),%ecx
addl 12(%rdi),%edx
addl 16(%rdi),%r8d
addl 20(%rdi),%r9d
addl 24(%rdi),%r10d
addl 28(%rdi),%r11d
cmpq 64+16(%rsp),%rsi
movl %eax,0(%rdi)
movl %ebx,4(%rdi)
movl %ecx,8(%rdi)
movl %edx,12(%rdi)
movl %r8d,16(%rdi)
movl %r9d,20(%rdi)
movl %r10d,24(%rdi)
movl %r11d,28(%rdi)
jb .Lloop_ssse3
movq 88(%rsp),%rsi
.cfi_def_cfa %rsi,8
movq -48(%rsi),%r15
.cfi_restore %r15
movq -40(%rsi),%r14
.cfi_restore %r14
movq -32(%rsi),%r13
.cfi_restore %r13
movq -24(%rsi),%r12
.cfi_restore %r12
movq -16(%rsi),%rbp
.cfi_restore %rbp
movq -8(%rsi),%rbx
.cfi_restore %rbx
leaq (%rsi),%rsp
.cfi_def_cfa_register %rsp
.Lepilogue_ssse3:
ret
.cfi_endproc
.size sha256_block_data_order_ssse3,.-sha256_block_data_order_ssse3
.globl sha256_block_data_order_avx
.hidden sha256_block_data_order_avx
.type sha256_block_data_order_avx,@function
.align 64
sha256_block_data_order_avx:
.cfi_startproc
_CET_ENDBR
movq %rsp,%rax
.cfi_def_cfa_register %rax
pushq %rbx
.cfi_offset %rbx,-16
pushq %rbp
.cfi_offset %rbp,-24
pushq %r12
.cfi_offset %r12,-32
pushq %r13
.cfi_offset %r13,-40
pushq %r14
.cfi_offset %r14,-48
pushq %r15
.cfi_offset %r15,-56
shlq $4,%rdx
subq $96,%rsp
leaq (%rsi,%rdx,4),%rdx
andq $-64,%rsp
movq %rdi,64+0(%rsp)
movq %rsi,64+8(%rsp)
movq %rdx,64+16(%rsp)
movq %rax,88(%rsp)
.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08
.Lprologue_avx:
vzeroupper
movl 0(%rdi),%eax
movl 4(%rdi),%ebx
movl 8(%rdi),%ecx
movl 12(%rdi),%edx
movl 16(%rdi),%r8d
movl 20(%rdi),%r9d
movl 24(%rdi),%r10d
movl 28(%rdi),%r11d
vmovdqa K256+512+32(%rip),%xmm8
vmovdqa K256+512+64(%rip),%xmm9
jmp .Lloop_avx
.align 16
.Lloop_avx:
vmovdqa K256+512(%rip),%xmm7
vmovdqu 0(%rsi),%xmm0
vmovdqu 16(%rsi),%xmm1
vmovdqu 32(%rsi),%xmm2
vmovdqu 48(%rsi),%xmm3
vpshufb %xmm7,%xmm0,%xmm0
leaq K256(%rip),%rbp
vpshufb %xmm7,%xmm1,%xmm1
vpshufb %xmm7,%xmm2,%xmm2
vpaddd 0(%rbp),%xmm0,%xmm4
vpshufb %xmm7,%xmm3,%xmm3
vpaddd 32(%rbp),%xmm1,%xmm5
vpaddd 64(%rbp),%xmm2,%xmm6
vpaddd 96(%rbp),%xmm3,%xmm7
vmovdqa %xmm4,0(%rsp)
movl %eax,%r14d
vmovdqa %xmm5,16(%rsp)
movl %ebx,%edi
vmovdqa %xmm6,32(%rsp)
xorl %ecx,%edi
vmovdqa %xmm7,48(%rsp)
movl %r8d,%r13d
jmp .Lavx_00_47
.align 16
.Lavx_00_47:
subq $-128,%rbp
vpalignr $4,%xmm0,%xmm1,%xmm4
shrdl $14,%r13d,%r13d
movl %r14d,%eax
movl %r9d,%r12d
vpalignr $4,%xmm2,%xmm3,%xmm7
shrdl $9,%r14d,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
vpsrld $7,%xmm4,%xmm6
shrdl $5,%r13d,%r13d
xorl %eax,%r14d
andl %r8d,%r12d
vpaddd %xmm7,%xmm0,%xmm0
xorl %r8d,%r13d
addl 0(%rsp),%r11d
movl %eax,%r15d
vpsrld $3,%xmm4,%xmm7
xorl %r10d,%r12d
shrdl $11,%r14d,%r14d
xorl %ebx,%r15d
vpslld $14,%xmm4,%xmm5
addl %r12d,%r11d
shrdl $6,%r13d,%r13d
andl %r15d,%edi
vpxor %xmm6,%xmm7,%xmm4
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
vpshufd $250,%xmm3,%xmm7
shrdl $2,%r14d,%r14d
addl %r11d,%edx
addl %edi,%r11d
vpsrld $11,%xmm6,%xmm6
movl %edx,%r13d
addl %r11d,%r14d
shrdl $14,%r13d,%r13d
vpxor %xmm5,%xmm4,%xmm4
movl %r14d,%r11d
movl %r8d,%r12d
shrdl $9,%r14d,%r14d
vpslld $11,%xmm5,%xmm5
xorl %edx,%r13d
xorl %r9d,%r12d
shrdl $5,%r13d,%r13d
vpxor %xmm6,%xmm4,%xmm4
xorl %r11d,%r14d
andl %edx,%r12d
xorl %edx,%r13d
vpsrld $10,%xmm7,%xmm6
addl 4(%rsp),%r10d
movl %r11d,%edi
xorl %r9d,%r12d
vpxor %xmm5,%xmm4,%xmm4
shrdl $11,%r14d,%r14d
xorl %eax,%edi
addl %r12d,%r10d
vpsrlq $17,%xmm7,%xmm7
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
vpaddd %xmm4,%xmm0,%xmm0
addl %r13d,%r10d
xorl %eax,%r15d
shrdl $2,%r14d,%r14d
vpxor %xmm7,%xmm6,%xmm6
addl %r10d,%ecx
addl %r15d,%r10d
movl %ecx,%r13d
vpsrlq $2,%xmm7,%xmm7
addl %r10d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r10d
vpxor %xmm7,%xmm6,%xmm6
movl %edx,%r12d
shrdl $9,%r14d,%r14d
xorl %ecx,%r13d
vpshufb %xmm8,%xmm6,%xmm6
xorl %r8d,%r12d
shrdl $5,%r13d,%r13d
xorl %r10d,%r14d
vpaddd %xmm6,%xmm0,%xmm0
andl %ecx,%r12d
xorl %ecx,%r13d
addl 8(%rsp),%r9d
vpshufd $80,%xmm0,%xmm7
movl %r10d,%r15d
xorl %r8d,%r12d
shrdl $11,%r14d,%r14d
vpsrld $10,%xmm7,%xmm6
xorl %r11d,%r15d
addl %r12d,%r9d
shrdl $6,%r13d,%r13d
vpsrlq $17,%xmm7,%xmm7
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
vpxor %xmm7,%xmm6,%xmm6
xorl %r11d,%edi
shrdl $2,%r14d,%r14d
addl %r9d,%ebx
vpsrlq $2,%xmm7,%xmm7
addl %edi,%r9d
movl %ebx,%r13d
addl %r9d,%r14d
vpxor %xmm7,%xmm6,%xmm6
shrdl $14,%r13d,%r13d
movl %r14d,%r9d
movl %ecx,%r12d
vpshufb %xmm9,%xmm6,%xmm6
shrdl $9,%r14d,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
vpaddd %xmm6,%xmm0,%xmm0
shrdl $5,%r13d,%r13d
xorl %r9d,%r14d
andl %ebx,%r12d
vpaddd 0(%rbp),%xmm0,%xmm6
xorl %ebx,%r13d
addl 12(%rsp),%r8d
movl %r9d,%edi
xorl %edx,%r12d
shrdl $11,%r14d,%r14d
xorl %r10d,%edi
addl %r12d,%r8d
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
shrdl $2,%r14d,%r14d
addl %r8d,%eax
addl %r15d,%r8d
movl %eax,%r13d
addl %r8d,%r14d
vmovdqa %xmm6,0(%rsp)
vpalignr $4,%xmm1,%xmm2,%xmm4
shrdl $14,%r13d,%r13d
movl %r14d,%r8d
movl %ebx,%r12d
vpalignr $4,%xmm3,%xmm0,%xmm7
shrdl $9,%r14d,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
vpsrld $7,%xmm4,%xmm6
shrdl $5,%r13d,%r13d
xorl %r8d,%r14d
andl %eax,%r12d
vpaddd %xmm7,%xmm1,%xmm1
xorl %eax,%r13d
addl 16(%rsp),%edx
movl %r8d,%r15d
vpsrld $3,%xmm4,%xmm7
xorl %ecx,%r12d
shrdl $11,%r14d,%r14d
xorl %r9d,%r15d
vpslld $14,%xmm4,%xmm5
addl %r12d,%edx
shrdl $6,%r13d,%r13d
andl %r15d,%edi
vpxor %xmm6,%xmm7,%xmm4
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
vpshufd $250,%xmm0,%xmm7
shrdl $2,%r14d,%r14d
addl %edx,%r11d
addl %edi,%edx
vpsrld $11,%xmm6,%xmm6
movl %r11d,%r13d
addl %edx,%r14d
shrdl $14,%r13d,%r13d
vpxor %xmm5,%xmm4,%xmm4
movl %r14d,%edx
movl %eax,%r12d
shrdl $9,%r14d,%r14d
vpslld $11,%xmm5,%xmm5
xorl %r11d,%r13d
xorl %ebx,%r12d
shrdl $5,%r13d,%r13d
vpxor %xmm6,%xmm4,%xmm4
xorl %edx,%r14d
andl %r11d,%r12d
xorl %r11d,%r13d
vpsrld $10,%xmm7,%xmm6
addl 20(%rsp),%ecx
movl %edx,%edi
xorl %ebx,%r12d
vpxor %xmm5,%xmm4,%xmm4
shrdl $11,%r14d,%r14d
xorl %r8d,%edi
addl %r12d,%ecx
vpsrlq $17,%xmm7,%xmm7
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %edx,%r14d
vpaddd %xmm4,%xmm1,%xmm1
addl %r13d,%ecx
xorl %r8d,%r15d
shrdl $2,%r14d,%r14d
vpxor %xmm7,%xmm6,%xmm6
addl %ecx,%r10d
addl %r15d,%ecx
movl %r10d,%r13d
vpsrlq $2,%xmm7,%xmm7
addl %ecx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%ecx
vpxor %xmm7,%xmm6,%xmm6
movl %r11d,%r12d
shrdl $9,%r14d,%r14d
xorl %r10d,%r13d
vpshufb %xmm8,%xmm6,%xmm6
xorl %eax,%r12d
shrdl $5,%r13d,%r13d
xorl %ecx,%r14d
vpaddd %xmm6,%xmm1,%xmm1
andl %r10d,%r12d
xorl %r10d,%r13d
addl 24(%rsp),%ebx
vpshufd $80,%xmm1,%xmm7
movl %ecx,%r15d
xorl %eax,%r12d
shrdl $11,%r14d,%r14d
vpsrld $10,%xmm7,%xmm6
xorl %edx,%r15d
addl %r12d,%ebx
shrdl $6,%r13d,%r13d
vpsrlq $17,%xmm7,%xmm7
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
vpxor %xmm7,%xmm6,%xmm6
xorl %edx,%edi
shrdl $2,%r14d,%r14d
addl %ebx,%r9d
vpsrlq $2,%xmm7,%xmm7
addl %edi,%ebx
movl %r9d,%r13d
addl %ebx,%r14d
vpxor %xmm7,%xmm6,%xmm6
shrdl $14,%r13d,%r13d
movl %r14d,%ebx
movl %r10d,%r12d
vpshufb %xmm9,%xmm6,%xmm6
shrdl $9,%r14d,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
vpaddd %xmm6,%xmm1,%xmm1
shrdl $5,%r13d,%r13d
xorl %ebx,%r14d
andl %r9d,%r12d
vpaddd 32(%rbp),%xmm1,%xmm6
xorl %r9d,%r13d
addl 28(%rsp),%eax
movl %ebx,%edi
xorl %r11d,%r12d
shrdl $11,%r14d,%r14d
xorl %ecx,%edi
addl %r12d,%eax
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
shrdl $2,%r14d,%r14d
addl %eax,%r8d
addl %r15d,%eax
movl %r8d,%r13d
addl %eax,%r14d
vmovdqa %xmm6,16(%rsp)
vpalignr $4,%xmm2,%xmm3,%xmm4
shrdl $14,%r13d,%r13d
movl %r14d,%eax
movl %r9d,%r12d
vpalignr $4,%xmm0,%xmm1,%xmm7
shrdl $9,%r14d,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
vpsrld $7,%xmm4,%xmm6
shrdl $5,%r13d,%r13d
xorl %eax,%r14d
andl %r8d,%r12d
vpaddd %xmm7,%xmm2,%xmm2
xorl %r8d,%r13d
addl 32(%rsp),%r11d
movl %eax,%r15d
vpsrld $3,%xmm4,%xmm7
xorl %r10d,%r12d
shrdl $11,%r14d,%r14d
xorl %ebx,%r15d
vpslld $14,%xmm4,%xmm5
addl %r12d,%r11d
shrdl $6,%r13d,%r13d
andl %r15d,%edi
vpxor %xmm6,%xmm7,%xmm4
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
vpshufd $250,%xmm1,%xmm7
shrdl $2,%r14d,%r14d
addl %r11d,%edx
addl %edi,%r11d
vpsrld $11,%xmm6,%xmm6
movl %edx,%r13d
addl %r11d,%r14d
shrdl $14,%r13d,%r13d
vpxor %xmm5,%xmm4,%xmm4
movl %r14d,%r11d
movl %r8d,%r12d
shrdl $9,%r14d,%r14d
vpslld $11,%xmm5,%xmm5
xorl %edx,%r13d
xorl %r9d,%r12d
shrdl $5,%r13d,%r13d
vpxor %xmm6,%xmm4,%xmm4
xorl %r11d,%r14d
andl %edx,%r12d
xorl %edx,%r13d
vpsrld $10,%xmm7,%xmm6
addl 36(%rsp),%r10d
movl %r11d,%edi
xorl %r9d,%r12d
vpxor %xmm5,%xmm4,%xmm4
shrdl $11,%r14d,%r14d
xorl %eax,%edi
addl %r12d,%r10d
vpsrlq $17,%xmm7,%xmm7
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
vpaddd %xmm4,%xmm2,%xmm2
addl %r13d,%r10d
xorl %eax,%r15d
shrdl $2,%r14d,%r14d
vpxor %xmm7,%xmm6,%xmm6
addl %r10d,%ecx
addl %r15d,%r10d
movl %ecx,%r13d
vpsrlq $2,%xmm7,%xmm7
addl %r10d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r10d
vpxor %xmm7,%xmm6,%xmm6
movl %edx,%r12d
shrdl $9,%r14d,%r14d
xorl %ecx,%r13d
vpshufb %xmm8,%xmm6,%xmm6
xorl %r8d,%r12d
shrdl $5,%r13d,%r13d
xorl %r10d,%r14d
vpaddd %xmm6,%xmm2,%xmm2
andl %ecx,%r12d
xorl %ecx,%r13d
addl 40(%rsp),%r9d
vpshufd $80,%xmm2,%xmm7
movl %r10d,%r15d
xorl %r8d,%r12d
shrdl $11,%r14d,%r14d
vpsrld $10,%xmm7,%xmm6
xorl %r11d,%r15d
addl %r12d,%r9d
shrdl $6,%r13d,%r13d
vpsrlq $17,%xmm7,%xmm7
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
vpxor %xmm7,%xmm6,%xmm6
xorl %r11d,%edi
shrdl $2,%r14d,%r14d
addl %r9d,%ebx
vpsrlq $2,%xmm7,%xmm7
addl %edi,%r9d
movl %ebx,%r13d
addl %r9d,%r14d
vpxor %xmm7,%xmm6,%xmm6
shrdl $14,%r13d,%r13d
movl %r14d,%r9d
movl %ecx,%r12d
vpshufb %xmm9,%xmm6,%xmm6
shrdl $9,%r14d,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
vpaddd %xmm6,%xmm2,%xmm2
shrdl $5,%r13d,%r13d
xorl %r9d,%r14d
andl %ebx,%r12d
vpaddd 64(%rbp),%xmm2,%xmm6
xorl %ebx,%r13d
addl 44(%rsp),%r8d
movl %r9d,%edi
xorl %edx,%r12d
shrdl $11,%r14d,%r14d
xorl %r10d,%edi
addl %r12d,%r8d
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
shrdl $2,%r14d,%r14d
addl %r8d,%eax
addl %r15d,%r8d
movl %eax,%r13d
addl %r8d,%r14d
vmovdqa %xmm6,32(%rsp)
vpalignr $4,%xmm3,%xmm0,%xmm4
shrdl $14,%r13d,%r13d
movl %r14d,%r8d
movl %ebx,%r12d
vpalignr $4,%xmm1,%xmm2,%xmm7
shrdl $9,%r14d,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
vpsrld $7,%xmm4,%xmm6
shrdl $5,%r13d,%r13d
xorl %r8d,%r14d
andl %eax,%r12d
vpaddd %xmm7,%xmm3,%xmm3
xorl %eax,%r13d
addl 48(%rsp),%edx
movl %r8d,%r15d
vpsrld $3,%xmm4,%xmm7
xorl %ecx,%r12d
shrdl $11,%r14d,%r14d
xorl %r9d,%r15d
vpslld $14,%xmm4,%xmm5
addl %r12d,%edx
shrdl $6,%r13d,%r13d
andl %r15d,%edi
vpxor %xmm6,%xmm7,%xmm4
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
vpshufd $250,%xmm2,%xmm7
shrdl $2,%r14d,%r14d
addl %edx,%r11d
addl %edi,%edx
vpsrld $11,%xmm6,%xmm6
movl %r11d,%r13d
addl %edx,%r14d
shrdl $14,%r13d,%r13d
vpxor %xmm5,%xmm4,%xmm4
movl %r14d,%edx
movl %eax,%r12d
shrdl $9,%r14d,%r14d
vpslld $11,%xmm5,%xmm5
xorl %r11d,%r13d
xorl %ebx,%r12d
shrdl $5,%r13d,%r13d
vpxor %xmm6,%xmm4,%xmm4
xorl %edx,%r14d
andl %r11d,%r12d
xorl %r11d,%r13d
vpsrld $10,%xmm7,%xmm6
addl 52(%rsp),%ecx
movl %edx,%edi
xorl %ebx,%r12d
vpxor %xmm5,%xmm4,%xmm4
shrdl $11,%r14d,%r14d
xorl %r8d,%edi
addl %r12d,%ecx
vpsrlq $17,%xmm7,%xmm7
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %edx,%r14d
vpaddd %xmm4,%xmm3,%xmm3
addl %r13d,%ecx
xorl %r8d,%r15d
shrdl $2,%r14d,%r14d
vpxor %xmm7,%xmm6,%xmm6
addl %ecx,%r10d
addl %r15d,%ecx
movl %r10d,%r13d
vpsrlq $2,%xmm7,%xmm7
addl %ecx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%ecx
vpxor %xmm7,%xmm6,%xmm6
movl %r11d,%r12d
shrdl $9,%r14d,%r14d
xorl %r10d,%r13d
vpshufb %xmm8,%xmm6,%xmm6
xorl %eax,%r12d
shrdl $5,%r13d,%r13d
xorl %ecx,%r14d
vpaddd %xmm6,%xmm3,%xmm3
andl %r10d,%r12d
xorl %r10d,%r13d
addl 56(%rsp),%ebx
vpshufd $80,%xmm3,%xmm7
movl %ecx,%r15d
xorl %eax,%r12d
shrdl $11,%r14d,%r14d
vpsrld $10,%xmm7,%xmm6
xorl %edx,%r15d
addl %r12d,%ebx
shrdl $6,%r13d,%r13d
vpsrlq $17,%xmm7,%xmm7
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
vpxor %xmm7,%xmm6,%xmm6
xorl %edx,%edi
shrdl $2,%r14d,%r14d
addl %ebx,%r9d
vpsrlq $2,%xmm7,%xmm7
addl %edi,%ebx
movl %r9d,%r13d
addl %ebx,%r14d
vpxor %xmm7,%xmm6,%xmm6
shrdl $14,%r13d,%r13d
movl %r14d,%ebx
movl %r10d,%r12d
vpshufb %xmm9,%xmm6,%xmm6
shrdl $9,%r14d,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
vpaddd %xmm6,%xmm3,%xmm3
shrdl $5,%r13d,%r13d
xorl %ebx,%r14d
andl %r9d,%r12d
vpaddd 96(%rbp),%xmm3,%xmm6
xorl %r9d,%r13d
addl 60(%rsp),%eax
movl %ebx,%edi
xorl %r11d,%r12d
shrdl $11,%r14d,%r14d
xorl %ecx,%edi
addl %r12d,%eax
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
shrdl $2,%r14d,%r14d
addl %eax,%r8d
addl %r15d,%eax
movl %r8d,%r13d
addl %eax,%r14d
vmovdqa %xmm6,48(%rsp)
cmpb $0,131(%rbp)
jne .Lavx_00_47
shrdl $14,%r13d,%r13d
movl %r14d,%eax
movl %r9d,%r12d
shrdl $9,%r14d,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
shrdl $5,%r13d,%r13d
xorl %eax,%r14d
andl %r8d,%r12d
xorl %r8d,%r13d
addl 0(%rsp),%r11d
movl %eax,%r15d
xorl %r10d,%r12d
shrdl $11,%r14d,%r14d
xorl %ebx,%r15d
addl %r12d,%r11d
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
shrdl $2,%r14d,%r14d
addl %r11d,%edx
addl %edi,%r11d
movl %edx,%r13d
addl %r11d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r11d
movl %r8d,%r12d
shrdl $9,%r14d,%r14d
xorl %edx,%r13d
xorl %r9d,%r12d
shrdl $5,%r13d,%r13d
xorl %r11d,%r14d
andl %edx,%r12d
xorl %edx,%r13d
addl 4(%rsp),%r10d
movl %r11d,%edi
xorl %r9d,%r12d
shrdl $11,%r14d,%r14d
xorl %eax,%edi
addl %r12d,%r10d
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
addl %r13d,%r10d
xorl %eax,%r15d
shrdl $2,%r14d,%r14d
addl %r10d,%ecx
addl %r15d,%r10d
movl %ecx,%r13d
addl %r10d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r10d
movl %edx,%r12d
shrdl $9,%r14d,%r14d
xorl %ecx,%r13d
xorl %r8d,%r12d
shrdl $5,%r13d,%r13d
xorl %r10d,%r14d
andl %ecx,%r12d
xorl %ecx,%r13d
addl 8(%rsp),%r9d
movl %r10d,%r15d
xorl %r8d,%r12d
shrdl $11,%r14d,%r14d
xorl %r11d,%r15d
addl %r12d,%r9d
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
xorl %r11d,%edi
shrdl $2,%r14d,%r14d
addl %r9d,%ebx
addl %edi,%r9d
movl %ebx,%r13d
addl %r9d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r9d
movl %ecx,%r12d
shrdl $9,%r14d,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
shrdl $5,%r13d,%r13d
xorl %r9d,%r14d
andl %ebx,%r12d
xorl %ebx,%r13d
addl 12(%rsp),%r8d
movl %r9d,%edi
xorl %edx,%r12d
shrdl $11,%r14d,%r14d
xorl %r10d,%edi
addl %r12d,%r8d
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
shrdl $2,%r14d,%r14d
addl %r8d,%eax
addl %r15d,%r8d
movl %eax,%r13d
addl %r8d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r8d
movl %ebx,%r12d
shrdl $9,%r14d,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
shrdl $5,%r13d,%r13d
xorl %r8d,%r14d
andl %eax,%r12d
xorl %eax,%r13d
addl 16(%rsp),%edx
movl %r8d,%r15d
xorl %ecx,%r12d
shrdl $11,%r14d,%r14d
xorl %r9d,%r15d
addl %r12d,%edx
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
shrdl $2,%r14d,%r14d
addl %edx,%r11d
addl %edi,%edx
movl %r11d,%r13d
addl %edx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%edx
movl %eax,%r12d
shrdl $9,%r14d,%r14d
xorl %r11d,%r13d
xorl %ebx,%r12d
shrdl $5,%r13d,%r13d
xorl %edx,%r14d
andl %r11d,%r12d
xorl %r11d,%r13d
addl 20(%rsp),%ecx
movl %edx,%edi
xorl %ebx,%r12d
shrdl $11,%r14d,%r14d
xorl %r8d,%edi
addl %r12d,%ecx
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %edx,%r14d
addl %r13d,%ecx
xorl %r8d,%r15d
shrdl $2,%r14d,%r14d
addl %ecx,%r10d
addl %r15d,%ecx
movl %r10d,%r13d
addl %ecx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%ecx
movl %r11d,%r12d
shrdl $9,%r14d,%r14d
xorl %r10d,%r13d
xorl %eax,%r12d
shrdl $5,%r13d,%r13d
xorl %ecx,%r14d
andl %r10d,%r12d
xorl %r10d,%r13d
addl 24(%rsp),%ebx
movl %ecx,%r15d
xorl %eax,%r12d
shrdl $11,%r14d,%r14d
xorl %edx,%r15d
addl %r12d,%ebx
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
xorl %edx,%edi
shrdl $2,%r14d,%r14d
addl %ebx,%r9d
addl %edi,%ebx
movl %r9d,%r13d
addl %ebx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%ebx
movl %r10d,%r12d
shrdl $9,%r14d,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
shrdl $5,%r13d,%r13d
xorl %ebx,%r14d
andl %r9d,%r12d
xorl %r9d,%r13d
addl 28(%rsp),%eax
movl %ebx,%edi
xorl %r11d,%r12d
shrdl $11,%r14d,%r14d
xorl %ecx,%edi
addl %r12d,%eax
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
shrdl $2,%r14d,%r14d
addl %eax,%r8d
addl %r15d,%eax
movl %r8d,%r13d
addl %eax,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%eax
movl %r9d,%r12d
shrdl $9,%r14d,%r14d
xorl %r8d,%r13d
xorl %r10d,%r12d
shrdl $5,%r13d,%r13d
xorl %eax,%r14d
andl %r8d,%r12d
xorl %r8d,%r13d
addl 32(%rsp),%r11d
movl %eax,%r15d
xorl %r10d,%r12d
shrdl $11,%r14d,%r14d
xorl %ebx,%r15d
addl %r12d,%r11d
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %eax,%r14d
addl %r13d,%r11d
xorl %ebx,%edi
shrdl $2,%r14d,%r14d
addl %r11d,%edx
addl %edi,%r11d
movl %edx,%r13d
addl %r11d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r11d
movl %r8d,%r12d
shrdl $9,%r14d,%r14d
xorl %edx,%r13d
xorl %r9d,%r12d
shrdl $5,%r13d,%r13d
xorl %r11d,%r14d
andl %edx,%r12d
xorl %edx,%r13d
addl 36(%rsp),%r10d
movl %r11d,%edi
xorl %r9d,%r12d
shrdl $11,%r14d,%r14d
xorl %eax,%edi
addl %r12d,%r10d
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r11d,%r14d
addl %r13d,%r10d
xorl %eax,%r15d
shrdl $2,%r14d,%r14d
addl %r10d,%ecx
addl %r15d,%r10d
movl %ecx,%r13d
addl %r10d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r10d
movl %edx,%r12d
shrdl $9,%r14d,%r14d
xorl %ecx,%r13d
xorl %r8d,%r12d
shrdl $5,%r13d,%r13d
xorl %r10d,%r14d
andl %ecx,%r12d
xorl %ecx,%r13d
addl 40(%rsp),%r9d
movl %r10d,%r15d
xorl %r8d,%r12d
shrdl $11,%r14d,%r14d
xorl %r11d,%r15d
addl %r12d,%r9d
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %r10d,%r14d
addl %r13d,%r9d
xorl %r11d,%edi
shrdl $2,%r14d,%r14d
addl %r9d,%ebx
addl %edi,%r9d
movl %ebx,%r13d
addl %r9d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r9d
movl %ecx,%r12d
shrdl $9,%r14d,%r14d
xorl %ebx,%r13d
xorl %edx,%r12d
shrdl $5,%r13d,%r13d
xorl %r9d,%r14d
andl %ebx,%r12d
xorl %ebx,%r13d
addl 44(%rsp),%r8d
movl %r9d,%edi
xorl %edx,%r12d
shrdl $11,%r14d,%r14d
xorl %r10d,%edi
addl %r12d,%r8d
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %r9d,%r14d
addl %r13d,%r8d
xorl %r10d,%r15d
shrdl $2,%r14d,%r14d
addl %r8d,%eax
addl %r15d,%r8d
movl %eax,%r13d
addl %r8d,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%r8d
movl %ebx,%r12d
shrdl $9,%r14d,%r14d
xorl %eax,%r13d
xorl %ecx,%r12d
shrdl $5,%r13d,%r13d
xorl %r8d,%r14d
andl %eax,%r12d
xorl %eax,%r13d
addl 48(%rsp),%edx
movl %r8d,%r15d
xorl %ecx,%r12d
shrdl $11,%r14d,%r14d
xorl %r9d,%r15d
addl %r12d,%edx
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %r8d,%r14d
addl %r13d,%edx
xorl %r9d,%edi
shrdl $2,%r14d,%r14d
addl %edx,%r11d
addl %edi,%edx
movl %r11d,%r13d
addl %edx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%edx
movl %eax,%r12d
shrdl $9,%r14d,%r14d
xorl %r11d,%r13d
xorl %ebx,%r12d
shrdl $5,%r13d,%r13d
xorl %edx,%r14d
andl %r11d,%r12d
xorl %r11d,%r13d
addl 52(%rsp),%ecx
movl %edx,%edi
xorl %ebx,%r12d
shrdl $11,%r14d,%r14d
xorl %r8d,%edi
addl %r12d,%ecx
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %edx,%r14d
addl %r13d,%ecx
xorl %r8d,%r15d
shrdl $2,%r14d,%r14d
addl %ecx,%r10d
addl %r15d,%ecx
movl %r10d,%r13d
addl %ecx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%ecx
movl %r11d,%r12d
shrdl $9,%r14d,%r14d
xorl %r10d,%r13d
xorl %eax,%r12d
shrdl $5,%r13d,%r13d
xorl %ecx,%r14d
andl %r10d,%r12d
xorl %r10d,%r13d
addl 56(%rsp),%ebx
movl %ecx,%r15d
xorl %eax,%r12d
shrdl $11,%r14d,%r14d
xorl %edx,%r15d
addl %r12d,%ebx
shrdl $6,%r13d,%r13d
andl %r15d,%edi
xorl %ecx,%r14d
addl %r13d,%ebx
xorl %edx,%edi
shrdl $2,%r14d,%r14d
addl %ebx,%r9d
addl %edi,%ebx
movl %r9d,%r13d
addl %ebx,%r14d
shrdl $14,%r13d,%r13d
movl %r14d,%ebx
movl %r10d,%r12d
shrdl $9,%r14d,%r14d
xorl %r9d,%r13d
xorl %r11d,%r12d
shrdl $5,%r13d,%r13d
xorl %ebx,%r14d
andl %r9d,%r12d
xorl %r9d,%r13d
addl 60(%rsp),%eax
movl %ebx,%edi
xorl %r11d,%r12d
shrdl $11,%r14d,%r14d
xorl %ecx,%edi
addl %r12d,%eax
shrdl $6,%r13d,%r13d
andl %edi,%r15d
xorl %ebx,%r14d
addl %r13d,%eax
xorl %ecx,%r15d
shrdl $2,%r14d,%r14d
addl %eax,%r8d
addl %r15d,%eax
movl %r8d,%r13d
addl %eax,%r14d
movq 64+0(%rsp),%rdi
movl %r14d,%eax
addl 0(%rdi),%eax
leaq 64(%rsi),%rsi
addl 4(%rdi),%ebx
addl 8(%rdi),%ecx
addl 12(%rdi),%edx
addl 16(%rdi),%r8d
addl 20(%rdi),%r9d
addl 24(%rdi),%r10d
addl 28(%rdi),%r11d
cmpq 64+16(%rsp),%rsi
movl %eax,0(%rdi)
movl %ebx,4(%rdi)
movl %ecx,8(%rdi)
movl %edx,12(%rdi)
movl %r8d,16(%rdi)
movl %r9d,20(%rdi)
movl %r10d,24(%rdi)
movl %r11d,28(%rdi)
jb .Lloop_avx
movq 88(%rsp),%rsi
.cfi_def_cfa %rsi,8
vzeroupper
movq -48(%rsi),%r15
.cfi_restore %r15
movq -40(%rsi),%r14
.cfi_restore %r14
movq -32(%rsi),%r13
.cfi_restore %r13
movq -24(%rsi),%r12
.cfi_restore %r12
movq -16(%rsi),%rbp
.cfi_restore %rbp
movq -8(%rsi),%rbx
.cfi_restore %rbx
leaq (%rsi),%rsp
.cfi_def_cfa_register %rsp
.Lepilogue_avx:
ret
.cfi_endproc
.size sha256_block_data_order_avx,.-sha256_block_data_order_avx
#endif
|
Vtyeshe/geoai-backend
| 82,152
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/aesv8-gcm-armv8-ios64.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(__APPLE__)
#if __ARM_MAX_ARCH__ >= 8
.text
.globl _aes_gcm_enc_kernel
.private_extern _aes_gcm_enc_kernel
.align 4
_aes_gcm_enc_kernel:
AARCH64_SIGN_LINK_REGISTER
stp x29, x30, [sp, #-128]!
mov x29, sp
stp x19, x20, [sp, #16]
mov x16, x4
mov x8, x5
stp x21, x22, [sp, #32]
stp x23, x24, [sp, #48]
stp d8, d9, [sp, #64]
stp d10, d11, [sp, #80]
stp d12, d13, [sp, #96]
stp d14, d15, [sp, #112]
ldr w17, [x8, #240]
add x19, x8, x17, lsl #4 // borrow input_l1 for last key
ldp x13, x14, [x19] // load round N keys
ldr q31, [x19, #-16] // load round N-1 keys
add x4, x0, x1, lsr #3 // end_input_ptr
lsr x5, x1, #3 // byte_len
mov x15, x5
ldp x10, x11, [x16] // ctr96_b64, ctr96_t32
ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible
sub x5, x5, #1 // byte_len - 1
ldr q18, [x8, #0] // load rk0
and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail)
ldr q25, [x8, #112] // load rk7
add x5, x5, x0
lsr x12, x11, #32
fmov d2, x10 // CTR block 2
orr w11, w11, w11
rev w12, w12 // rev_ctr32
fmov d1, x10 // CTR block 1
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 0 - round 0
add w12, w12, #1 // increment rev_ctr32
rev w9, w12 // CTR block 1
fmov d3, x10 // CTR block 3
orr x9, x11, x9, lsl #32 // CTR block 1
add w12, w12, #1 // CTR block 1
ldr q19, [x8, #16] // load rk1
fmov v1.d[1], x9 // CTR block 1
rev w9, w12 // CTR block 2
add w12, w12, #1 // CTR block 2
orr x9, x11, x9, lsl #32 // CTR block 2
ldr q20, [x8, #32] // load rk2
fmov v2.d[1], x9 // CTR block 2
rev w9, w12 // CTR block 3
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 0 - round 1
orr x9, x11, x9, lsl #32 // CTR block 3
fmov v3.d[1], x9 // CTR block 3
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 1 - round 0
ldr q21, [x8, #48] // load rk3
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 0 - round 2
ldr q24, [x8, #96] // load rk6
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 2 - round 0
ldr q23, [x8, #80] // load rk5
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 1 - round 1
ldr q14, [x6, #48] // load h3l | h3h
ext v14.16b, v14.16b, v14.16b, #8
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 3 - round 0
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 2 - round 1
ldr q22, [x8, #64] // load rk4
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 1 - round 2
ldr q13, [x6, #32] // load h2l | h2h
ext v13.16b, v13.16b, v13.16b, #8
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 3 - round 1
ldr q30, [x8, #192] // load rk12
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 2 - round 2
ldr q15, [x6, #80] // load h4l | h4h
ext v15.16b, v15.16b, v15.16b, #8
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 1 - round 3
ldr q29, [x8, #176] // load rk11
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 3 - round 2
ldr q26, [x8, #128] // load rk8
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 2 - round 3
add w12, w12, #1 // CTR block 3
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 0 - round 3
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 3 - round 3
ld1 { v11.16b}, [x3]
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 2 - round 4
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 0 - round 4
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 1 - round 4
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 3 - round 4
cmp x17, #12 // setup flags for AES-128/192/256 check
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 0 - round 5
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 1 - round 5
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 3 - round 5
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 2 - round 5
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 1 - round 6
trn2 v17.2d, v14.2d, v15.2d // h4l | h3l
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 3 - round 6
ldr q27, [x8, #144] // load rk9
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 0 - round 6
ldr q12, [x6] // load h1l | h1h
ext v12.16b, v12.16b, v12.16b, #8
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 2 - round 6
ldr q28, [x8, #160] // load rk10
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 1 - round 7
trn1 v9.2d, v14.2d, v15.2d // h4h | h3h
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 0 - round 7
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 2 - round 7
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 3 - round 7
trn2 v16.2d, v12.2d, v13.2d // h2l | h1l
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 1 - round 8
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 2 - round 8
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 3 - round 8
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 0 - round 8
b.lt Lenc_finish_first_blocks // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 1 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 2 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 3 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 0 - round 9
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 1 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 2 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 3 - round 10
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 0 - round 10
b.eq Lenc_finish_first_blocks // branch if AES-192
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 1 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 2 - round 11
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 0 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 3 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 1 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 2 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 0 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 3 - round 12
Lenc_finish_first_blocks:
cmp x0, x5 // check if we have <= 4 blocks
eor v17.16b, v17.16b, v9.16b // h4k | h3k
aese v2.16b, v31.16b // AES block 2 - round N-1
trn1 v8.2d, v12.2d, v13.2d // h2h | h1h
aese v1.16b, v31.16b // AES block 1 - round N-1
aese v0.16b, v31.16b // AES block 0 - round N-1
aese v3.16b, v31.16b // AES block 3 - round N-1
eor v16.16b, v16.16b, v8.16b // h2k | h1k
b.ge Lenc_tail // handle tail
ldp x19, x20, [x0, #16] // AES block 1 - load plaintext
rev w9, w12 // CTR block 4
ldp x6, x7, [x0, #0] // AES block 0 - load plaintext
ldp x23, x24, [x0, #48] // AES block 3 - load plaintext
ldp x21, x22, [x0, #32] // AES block 2 - load plaintext
add x0, x0, #64 // AES input_ptr update
eor x19, x19, x13 // AES block 1 - round N low
eor x20, x20, x14 // AES block 1 - round N high
fmov d5, x19 // AES block 1 - mov low
eor x6, x6, x13 // AES block 0 - round N low
eor x7, x7, x14 // AES block 0 - round N high
eor x24, x24, x14 // AES block 3 - round N high
fmov d4, x6 // AES block 0 - mov low
cmp x0, x5 // check if we have <= 8 blocks
fmov v4.d[1], x7 // AES block 0 - mov high
eor x23, x23, x13 // AES block 3 - round N low
eor x21, x21, x13 // AES block 2 - round N low
fmov v5.d[1], x20 // AES block 1 - mov high
fmov d6, x21 // AES block 2 - mov low
add w12, w12, #1 // CTR block 4
orr x9, x11, x9, lsl #32 // CTR block 4
fmov d7, x23 // AES block 3 - mov low
eor x22, x22, x14 // AES block 2 - round N high
fmov v6.d[1], x22 // AES block 2 - mov high
eor v4.16b, v4.16b, v0.16b // AES block 0 - result
fmov d0, x10 // CTR block 4
fmov v0.d[1], x9 // CTR block 4
rev w9, w12 // CTR block 5
add w12, w12, #1 // CTR block 5
eor v5.16b, v5.16b, v1.16b // AES block 1 - result
fmov d1, x10 // CTR block 5
orr x9, x11, x9, lsl #32 // CTR block 5
fmov v1.d[1], x9 // CTR block 5
rev w9, w12 // CTR block 6
st1 { v4.16b}, [x2], #16 // AES block 0 - store result
fmov v7.d[1], x24 // AES block 3 - mov high
orr x9, x11, x9, lsl #32 // CTR block 6
eor v6.16b, v6.16b, v2.16b // AES block 2 - result
st1 { v5.16b}, [x2], #16 // AES block 1 - store result
add w12, w12, #1 // CTR block 6
fmov d2, x10 // CTR block 6
fmov v2.d[1], x9 // CTR block 6
st1 { v6.16b}, [x2], #16 // AES block 2 - store result
rev w9, w12 // CTR block 7
orr x9, x11, x9, lsl #32 // CTR block 7
eor v7.16b, v7.16b, v3.16b // AES block 3 - result
st1 { v7.16b}, [x2], #16 // AES block 3 - store result
b.ge Lenc_prepretail // do prepretail
Lenc_main_loop: // main loop start
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free)
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
fmov d3, x10 // CTR block 4k+3
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
fmov v3.d[1], x9 // CTR block 4k+3
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
ldp x23, x24, [x0, #48] // AES block 4k+7 - load plaintext
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
ldp x21, x22, [x0, #32] // AES block 4k+6 - load plaintext
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
eor v4.16b, v4.16b, v11.16b // PRE 1
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
eor x23, x23, x13 // AES block 4k+7 - round N low
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
mov d10, v17.d[1] // GHASH block 4k - mid
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
eor x22, x22, x14 // AES block 4k+6 - round N high
mov d8, v4.d[1] // GHASH block 4k - mid
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free)
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free)
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free)
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
ldp x19, x20, [x0, #16] // AES block 4k+5 - load plaintext
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
mov d4, v7.d[1] // GHASH block 4k+3 - mid
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor x19, x19, x13 // AES block 4k+5 - round N low
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
eor x21, x21, x13 // AES block 4k+6 - round N low
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
movi v8.8b, #0xc2
pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
cmp x17, #12 // setup flags for AES-128/192/256 check
fmov d5, x19 // AES block 4k+5 - mov low
ldp x6, x7, [x0, #0] // AES block 4k+4 - load plaintext
b.lt Lenc_main_loop_continue // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
b.eq Lenc_main_loop_continue // branch if AES-192
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
Lenc_main_loop_continue:
shl d8, d8, #56 // mod_constant
eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid
add w12, w12, #1 // CTR block 4k+3
eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
add x0, x0, #64 // AES input_ptr update
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
rev w9, w12 // CTR block 4k+8
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor x6, x6, x13 // AES block 4k+4 - round N low
eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up
eor x7, x7, x14 // AES block 4k+4 - round N high
fmov d4, x6 // AES block 4k+4 - mov low
orr x9, x11, x9, lsl #32 // CTR block 4k+8
eor v7.16b, v9.16b, v7.16b // MODULO - fold into mid
eor x20, x20, x14 // AES block 4k+5 - round N high
eor x24, x24, x14 // AES block 4k+7 - round N high
add w12, w12, #1 // CTR block 4k+8
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
fmov v4.d[1], x7 // AES block 4k+4 - mov high
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
fmov d7, x23 // AES block 4k+7 - mov low
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
fmov v5.d[1], x20 // AES block 4k+5 - mov high
fmov d6, x21 // AES block 4k+6 - mov low
cmp x0, x5 // LOOP CONTROL
fmov v6.d[1], x22 // AES block 4k+6 - mov high
pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
eor v4.16b, v4.16b, v0.16b // AES block 4k+4 - result
fmov d0, x10 // CTR block 4k+8
fmov v0.d[1], x9 // CTR block 4k+8
rev w9, w12 // CTR block 4k+9
add w12, w12, #1 // CTR block 4k+9
eor v5.16b, v5.16b, v1.16b // AES block 4k+5 - result
fmov d1, x10 // CTR block 4k+9
orr x9, x11, x9, lsl #32 // CTR block 4k+9
fmov v1.d[1], x9 // CTR block 4k+9
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
rev w9, w12 // CTR block 4k+10
st1 { v4.16b}, [x2], #16 // AES block 4k+4 - store result
orr x9, x11, x9, lsl #32 // CTR block 4k+10
eor v11.16b, v11.16b, v9.16b // MODULO - fold into low
fmov v7.d[1], x24 // AES block 4k+7 - mov high
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
st1 { v5.16b}, [x2], #16 // AES block 4k+5 - store result
add w12, w12, #1 // CTR block 4k+10
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
eor v6.16b, v6.16b, v2.16b // AES block 4k+6 - result
fmov d2, x10 // CTR block 4k+10
st1 { v6.16b}, [x2], #16 // AES block 4k+6 - store result
fmov v2.d[1], x9 // CTR block 4k+10
rev w9, w12 // CTR block 4k+11
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
orr x9, x11, x9, lsl #32 // CTR block 4k+11
eor v7.16b, v7.16b, v3.16b // AES block 4k+7 - result
st1 { v7.16b}, [x2], #16 // AES block 4k+7 - store result
b.lt Lenc_main_loop
Lenc_prepretail: // PREPRETAIL
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free)
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
fmov d3, x10 // CTR block 4k+3
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free)
fmov v3.d[1], x9 // CTR block 4k+3
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
eor v4.16b, v4.16b, v11.16b // PRE 1
rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free)
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
mov d10, v17.d[1] // GHASH block 4k - mid
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
mov d8, v4.d[1] // GHASH block 4k - mid
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free)
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
add w12, w12, #1 // CTR block 4k+3
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
mov d4, v7.d[1] // GHASH block 4k+3 - mid
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
movi v8.8b, #0xc2
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
shl d8, d8, #56 // mod_constant
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid
pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
cmp x17, #12 // setup flags for AES-128/192/256 check
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor v10.16b, v10.16b, v9.16b // karatsuba tidy up
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
pmull v4.1q, v9.1d, v8.1d
ext v9.16b, v9.16b, v9.16b, #8
eor v10.16b, v10.16b, v11.16b
b.lt Lenc_finish_prepretail // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
b.eq Lenc_finish_prepretail // branch if AES-192
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
Lenc_finish_prepretail:
eor v10.16b, v10.16b, v4.16b
eor v10.16b, v10.16b, v9.16b
pmull v4.1q, v10.1d, v8.1d
ext v10.16b, v10.16b, v10.16b, #8
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
eor v11.16b, v11.16b, v4.16b
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
eor v11.16b, v11.16b, v10.16b
Lenc_tail: // TAIL
ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag
sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process
ldp x6, x7, [x0], #16 // AES block 4k+4 - load plaintext
eor x6, x6, x13 // AES block 4k+4 - round N low
eor x7, x7, x14 // AES block 4k+4 - round N high
cmp x5, #48
fmov d4, x6 // AES block 4k+4 - mov low
fmov v4.d[1], x7 // AES block 4k+4 - mov high
eor v5.16b, v4.16b, v0.16b // AES block 4k+4 - result
b.gt Lenc_blocks_more_than_3
cmp x5, #32
mov v3.16b, v2.16b
movi v11.8b, #0
movi v9.8b, #0
sub w12, w12, #1
mov v2.16b, v1.16b
movi v10.8b, #0
b.gt Lenc_blocks_more_than_2
mov v3.16b, v1.16b
sub w12, w12, #1
cmp x5, #16
b.gt Lenc_blocks_more_than_1
sub w12, w12, #1
b Lenc_blocks_less_than_1
Lenc_blocks_more_than_3: // blocks left > 3
st1 { v5.16b}, [x2], #16 // AES final-3 block - store result
ldp x6, x7, [x0], #16 // AES final-2 block - load input low & high
rev64 v4.16b, v5.16b // GHASH final-3 block
eor x6, x6, x13 // AES final-2 block - round N low
eor v4.16b, v4.16b, v8.16b // feed in partial tag
eor x7, x7, x14 // AES final-2 block - round N high
mov d22, v4.d[1] // GHASH final-3 block - mid
fmov d5, x6 // AES final-2 block - mov low
fmov v5.d[1], x7 // AES final-2 block - mov high
eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid
movi v8.8b, #0 // suppress further partial tag feed in
mov d10, v17.d[1] // GHASH final-3 block - mid
pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low
pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high
pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid
eor v5.16b, v5.16b, v1.16b // AES final-2 block - result
Lenc_blocks_more_than_2: // blocks left > 2
st1 { v5.16b}, [x2], #16 // AES final-2 block - store result
ldp x6, x7, [x0], #16 // AES final-1 block - load input low & high
rev64 v4.16b, v5.16b // GHASH final-2 block
eor x6, x6, x13 // AES final-1 block - round N low
eor v4.16b, v4.16b, v8.16b // feed in partial tag
fmov d5, x6 // AES final-1 block - mov low
eor x7, x7, x14 // AES final-1 block - round N high
fmov v5.d[1], x7 // AES final-1 block - mov high
movi v8.8b, #0 // suppress further partial tag feed in
pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high
mov d22, v4.d[1] // GHASH final-2 block - mid
pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low
eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid
eor v5.16b, v5.16b, v2.16b // AES final-1 block - result
eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high
pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid
eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low
eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid
Lenc_blocks_more_than_1: // blocks left > 1
st1 { v5.16b}, [x2], #16 // AES final-1 block - store result
rev64 v4.16b, v5.16b // GHASH final-1 block
ldp x6, x7, [x0], #16 // AES final block - load input low & high
eor v4.16b, v4.16b, v8.16b // feed in partial tag
movi v8.8b, #0 // suppress further partial tag feed in
eor x6, x6, x13 // AES final block - round N low
mov d22, v4.d[1] // GHASH final-1 block - mid
pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high
eor x7, x7, x14 // AES final block - round N high
eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid
eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high
ins v22.d[1], v22.d[0] // GHASH final-1 block - mid
fmov d5, x6 // AES final block - mov low
fmov v5.d[1], x7 // AES final block - mov high
pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid
pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low
eor v5.16b, v5.16b, v3.16b // AES final block - result
eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid
eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low
Lenc_blocks_less_than_1: // blocks left <= 1
and x1, x1, #127 // bit_length %= 128
mvn x13, xzr // rkN_l = 0xffffffffffffffff
sub x1, x1, #128 // bit_length -= 128
neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128])
ld1 { v18.16b}, [x2] // load existing bytes where the possibly partial last block is to be stored
mvn x14, xzr // rkN_h = 0xffffffffffffffff
and x1, x1, #127 // bit_length %= 128
lsr x14, x14, x1 // rkN_h is mask for top 64b of last block
cmp x1, #64
csel x6, x13, x14, lt
csel x7, x14, xzr, lt
fmov d0, x6 // ctr0b is mask for last block
fmov v0.d[1], x7
and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits
rev64 v4.16b, v5.16b // GHASH final block
eor v4.16b, v4.16b, v8.16b // feed in partial tag
bif v5.16b, v18.16b, v0.16b // insert existing bytes in top end of result before storing
pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high
mov d8, v4.d[1] // GHASH final block - mid
rev w9, w12
pmull v21.1q, v4.1d, v12.1d // GHASH final block - low
eor v9.16b, v9.16b, v20.16b // GHASH final block - high
eor v8.8b, v8.8b, v4.8b // GHASH final block - mid
pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid
eor v11.16b, v11.16b, v21.16b // GHASH final block - low
eor v10.16b, v10.16b, v8.16b // GHASH final block - mid
movi v8.8b, #0xc2
eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
shl d8, d8, #56 // mod_constant
eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
str w9, [x16, #12] // store the updated counter
st1 { v5.16b}, [x2] // store all 16B
eor v11.16b, v11.16b, v9.16b // MODULO - fold into low
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
mov x0, x15
st1 { v11.16b }, [x3]
ldp x19, x20, [sp, #16]
ldp x21, x22, [sp, #32]
ldp x23, x24, [sp, #48]
ldp d8, d9, [sp, #64]
ldp d10, d11, [sp, #80]
ldp d12, d13, [sp, #96]
ldp d14, d15, [sp, #112]
ldp x29, x30, [sp], #128
AARCH64_VALIDATE_LINK_REGISTER
ret
.globl _aes_gcm_dec_kernel
.private_extern _aes_gcm_dec_kernel
.align 4
_aes_gcm_dec_kernel:
AARCH64_SIGN_LINK_REGISTER
stp x29, x30, [sp, #-128]!
mov x29, sp
stp x19, x20, [sp, #16]
mov x16, x4
mov x8, x5
stp x21, x22, [sp, #32]
stp x23, x24, [sp, #48]
stp d8, d9, [sp, #64]
stp d10, d11, [sp, #80]
stp d12, d13, [sp, #96]
stp d14, d15, [sp, #112]
ldr w17, [x8, #240]
add x19, x8, x17, lsl #4 // borrow input_l1 for last key
ldp x13, x14, [x19] // load round N keys
ldr q31, [x19, #-16] // load round N-1 keys
lsr x5, x1, #3 // byte_len
mov x15, x5
ldp x10, x11, [x16] // ctr96_b64, ctr96_t32
ldr q26, [x8, #128] // load rk8
sub x5, x5, #1 // byte_len - 1
ldr q25, [x8, #112] // load rk7
and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail)
add x4, x0, x1, lsr #3 // end_input_ptr
ldr q24, [x8, #96] // load rk6
lsr x12, x11, #32
ldr q23, [x8, #80] // load rk5
orr w11, w11, w11
ldr q21, [x8, #48] // load rk3
add x5, x5, x0
rev w12, w12 // rev_ctr32
add w12, w12, #1 // increment rev_ctr32
fmov d3, x10 // CTR block 3
rev w9, w12 // CTR block 1
add w12, w12, #1 // CTR block 1
fmov d1, x10 // CTR block 1
orr x9, x11, x9, lsl #32 // CTR block 1
ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible
fmov v1.d[1], x9 // CTR block 1
rev w9, w12 // CTR block 2
add w12, w12, #1 // CTR block 2
fmov d2, x10 // CTR block 2
orr x9, x11, x9, lsl #32 // CTR block 2
fmov v2.d[1], x9 // CTR block 2
rev w9, w12 // CTR block 3
orr x9, x11, x9, lsl #32 // CTR block 3
ldr q18, [x8, #0] // load rk0
fmov v3.d[1], x9 // CTR block 3
add w12, w12, #1 // CTR block 3
ldr q22, [x8, #64] // load rk4
ldr q19, [x8, #16] // load rk1
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 0 - round 0
ldr q14, [x6, #48] // load h3l | h3h
ext v14.16b, v14.16b, v14.16b, #8
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 3 - round 0
ldr q15, [x6, #80] // load h4l | h4h
ext v15.16b, v15.16b, v15.16b, #8
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 1 - round 0
ldr q13, [x6, #32] // load h2l | h2h
ext v13.16b, v13.16b, v13.16b, #8
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 2 - round 0
ldr q20, [x8, #32] // load rk2
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 0 - round 1
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 1 - round 1
ld1 { v11.16b}, [x3]
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 2 - round 1
ldr q27, [x8, #144] // load rk9
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 3 - round 1
ldr q30, [x8, #192] // load rk12
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 0 - round 2
ldr q12, [x6] // load h1l | h1h
ext v12.16b, v12.16b, v12.16b, #8
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 2 - round 2
ldr q28, [x8, #160] // load rk10
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 3 - round 2
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 0 - round 3
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 1 - round 2
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 3 - round 3
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 0 - round 4
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 2 - round 3
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 1 - round 3
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 3 - round 4
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 2 - round 4
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 1 - round 4
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 3 - round 5
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 0 - round 5
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 1 - round 5
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 2 - round 5
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 0 - round 6
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 3 - round 6
cmp x17, #12 // setup flags for AES-128/192/256 check
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 1 - round 6
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 2 - round 6
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 0 - round 7
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 1 - round 7
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 3 - round 7
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 0 - round 8
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 2 - round 7
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 3 - round 8
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 1 - round 8
ldr q29, [x8, #176] // load rk11
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 2 - round 8
b.lt Ldec_finish_first_blocks // branch if AES-128
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 0 - round 9
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 1 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 3 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 2 - round 9
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 0 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 1 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 3 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 2 - round 10
b.eq Ldec_finish_first_blocks // branch if AES-192
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 0 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 3 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 1 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 2 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 1 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 0 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 2 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 3 - round 12
Ldec_finish_first_blocks:
cmp x0, x5 // check if we have <= 4 blocks
trn1 v9.2d, v14.2d, v15.2d // h4h | h3h
trn2 v17.2d, v14.2d, v15.2d // h4l | h3l
trn1 v8.2d, v12.2d, v13.2d // h2h | h1h
trn2 v16.2d, v12.2d, v13.2d // h2l | h1l
eor v17.16b, v17.16b, v9.16b // h4k | h3k
aese v1.16b, v31.16b // AES block 1 - round N-1
aese v2.16b, v31.16b // AES block 2 - round N-1
eor v16.16b, v16.16b, v8.16b // h2k | h1k
aese v3.16b, v31.16b // AES block 3 - round N-1
aese v0.16b, v31.16b // AES block 0 - round N-1
b.ge Ldec_tail // handle tail
ldr q4, [x0, #0] // AES block 0 - load ciphertext
ldr q5, [x0, #16] // AES block 1 - load ciphertext
rev w9, w12 // CTR block 4
eor v0.16b, v4.16b, v0.16b // AES block 0 - result
eor v1.16b, v5.16b, v1.16b // AES block 1 - result
rev64 v5.16b, v5.16b // GHASH block 1
ldr q7, [x0, #48] // AES block 3 - load ciphertext
mov x7, v0.d[1] // AES block 0 - mov high
mov x6, v0.d[0] // AES block 0 - mov low
rev64 v4.16b, v4.16b // GHASH block 0
add w12, w12, #1 // CTR block 4
fmov d0, x10 // CTR block 4
orr x9, x11, x9, lsl #32 // CTR block 4
fmov v0.d[1], x9 // CTR block 4
rev w9, w12 // CTR block 5
add w12, w12, #1 // CTR block 5
mov x19, v1.d[0] // AES block 1 - mov low
orr x9, x11, x9, lsl #32 // CTR block 5
mov x20, v1.d[1] // AES block 1 - mov high
eor x7, x7, x14 // AES block 0 - round N high
eor x6, x6, x13 // AES block 0 - round N low
stp x6, x7, [x2], #16 // AES block 0 - store result
fmov d1, x10 // CTR block 5
ldr q6, [x0, #32] // AES block 2 - load ciphertext
add x0, x0, #64 // AES input_ptr update
fmov v1.d[1], x9 // CTR block 5
rev w9, w12 // CTR block 6
add w12, w12, #1 // CTR block 6
eor x19, x19, x13 // AES block 1 - round N low
orr x9, x11, x9, lsl #32 // CTR block 6
eor x20, x20, x14 // AES block 1 - round N high
stp x19, x20, [x2], #16 // AES block 1 - store result
eor v2.16b, v6.16b, v2.16b // AES block 2 - result
cmp x0, x5 // check if we have <= 8 blocks
b.ge Ldec_prepretail // do prepretail
Ldec_main_loop: // main loop start
mov x21, v2.d[0] // AES block 4k+2 - mov low
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
mov x22, v2.d[1] // AES block 4k+2 - mov high
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
fmov d2, x10 // CTR block 4k+6
fmov v2.d[1], x9 // CTR block 4k+6
eor v4.16b, v4.16b, v11.16b // PRE 1
rev w9, w12 // CTR block 4k+7
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
mov x24, v3.d[1] // AES block 4k+3 - mov high
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
mov x23, v3.d[0] // AES block 4k+3 - mov low
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
mov d8, v4.d[1] // GHASH block 4k - mid
fmov d3, x10 // CTR block 4k+7
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
orr x9, x11, x9, lsl #32 // CTR block 4k+7
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
fmov v3.d[1], x9 // CTR block 4k+7
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
eor x22, x22, x14 // AES block 4k+2 - round N high
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
mov d10, v17.d[1] // GHASH block 4k - mid
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
rev64 v6.16b, v6.16b // GHASH block 4k+2
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
eor x21, x21, x13 // AES block 4k+2 - round N low
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
stp x21, x22, [x2], #16 // AES block 4k+2 - store result
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
rev64 v7.16b, v7.16b // GHASH block 4k+3
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
eor x23, x23, x13 // AES block 4k+3 - round N low
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
eor x24, x24, x14 // AES block 4k+3 - round N high
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
add w12, w12, #1 // CTR block 4k+7
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
rev w9, w12 // CTR block 4k+8
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
add w12, w12, #1 // CTR block 4k+8
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
mov d6, v7.d[1] // GHASH block 4k+3 - mid
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
orr x9, x11, x9, lsl #32 // CTR block 4k+8
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
cmp x17, #12 // setup flags for AES-128/192/256 check
eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid
movi v8.8b, #0xc2
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
shl d8, d8, #56 // mod_constant
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
b.lt Ldec_main_loop_continue // branch if AES-128
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
b.eq Ldec_main_loop_continue // branch if AES-192
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
Ldec_main_loop_continue:
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
ldr q4, [x0, #0] // AES block 4k+4 - load ciphertext
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up
ldr q5, [x0, #16] // AES block 4k+5 - load ciphertext
eor v0.16b, v4.16b, v0.16b // AES block 4k+4 - result
stp x23, x24, [x2], #16 // AES block 4k+3 - store result
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
ldr q7, [x0, #48] // AES block 4k+7 - load ciphertext
ldr q6, [x0, #32] // AES block 4k+6 - load ciphertext
mov x7, v0.d[1] // AES block 4k+4 - mov high
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
add x0, x0, #64 // AES input_ptr update
mov x6, v0.d[0] // AES block 4k+4 - mov low
fmov d0, x10 // CTR block 4k+8
fmov v0.d[1], x9 // CTR block 4k+8
pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
eor v1.16b, v5.16b, v1.16b // AES block 4k+5 - result
rev w9, w12 // CTR block 4k+9
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
orr x9, x11, x9, lsl #32 // CTR block 4k+9
cmp x0, x5 // LOOP CONTROL
add w12, w12, #1 // CTR block 4k+9
eor x6, x6, x13 // AES block 4k+4 - round N low
eor x7, x7, x14 // AES block 4k+4 - round N high
mov x20, v1.d[1] // AES block 4k+5 - mov high
eor v2.16b, v6.16b, v2.16b // AES block 4k+6 - result
eor v11.16b, v11.16b, v8.16b // MODULO - fold into low
mov x19, v1.d[0] // AES block 4k+5 - mov low
fmov d1, x10 // CTR block 4k+9
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
fmov v1.d[1], x9 // CTR block 4k+9
rev w9, w12 // CTR block 4k+10
add w12, w12, #1 // CTR block 4k+10
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
orr x9, x11, x9, lsl #32 // CTR block 4k+10
rev64 v5.16b, v5.16b // GHASH block 4k+5
eor x20, x20, x14 // AES block 4k+5 - round N high
stp x6, x7, [x2], #16 // AES block 4k+4 - store result
eor x19, x19, x13 // AES block 4k+5 - round N low
stp x19, x20, [x2], #16 // AES block 4k+5 - store result
rev64 v4.16b, v4.16b // GHASH block 4k+4
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
b.lt Ldec_main_loop
Ldec_prepretail: // PREPRETAIL
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
mov x21, v2.d[0] // AES block 4k+2 - mov low
eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
mov x22, v2.d[1] // AES block 4k+2 - mov high
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
fmov d2, x10 // CTR block 4k+6
fmov v2.d[1], x9 // CTR block 4k+6
rev w9, w12 // CTR block 4k+7
eor v4.16b, v4.16b, v11.16b // PRE 1
rev64 v6.16b, v6.16b // GHASH block 4k+2
orr x9, x11, x9, lsl #32 // CTR block 4k+7
mov x23, v3.d[0] // AES block 4k+3 - mov low
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
mov x24, v3.d[1] // AES block 4k+3 - mov high
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
mov d8, v4.d[1] // GHASH block 4k - mid
fmov d3, x10 // CTR block 4k+7
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
fmov v3.d[1], x9 // CTR block 4k+7
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
mov d10, v17.d[1] // GHASH block 4k - mid
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
rev64 v7.16b, v7.16b // GHASH block 4k+3
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
mov d6, v7.d[1] // GHASH block 4k+3 - mid
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
movi v8.8b, #0xc2
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low
pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
cmp x17, #12 // setup flags for AES-128/192/256 check
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
shl d8, d8, #56 // mod_constant
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
b.lt Ldec_finish_prepretail // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
b.eq Ldec_finish_prepretail // branch if AES-192
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
Ldec_finish_prepretail:
eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
eor x22, x22, x14 // AES block 4k+2 - round N high
eor x23, x23, x13 // AES block 4k+3 - round N low
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
add w12, w12, #1 // CTR block 4k+7
eor x21, x21, x13 // AES block 4k+2 - round N low
pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
eor x24, x24, x14 // AES block 4k+3 - round N high
stp x21, x22, [x2], #16 // AES block 4k+2 - store result
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
stp x23, x24, [x2], #16 // AES block 4k+3 - store result
eor v11.16b, v11.16b, v8.16b // MODULO - fold into low
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
Ldec_tail: // TAIL
sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process
ld1 { v5.16b}, [x0], #16 // AES block 4k+4 - load ciphertext
eor v0.16b, v5.16b, v0.16b // AES block 4k+4 - result
mov x6, v0.d[0] // AES block 4k+4 - mov low
mov x7, v0.d[1] // AES block 4k+4 - mov high
ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag
cmp x5, #48
eor x6, x6, x13 // AES block 4k+4 - round N low
eor x7, x7, x14 // AES block 4k+4 - round N high
b.gt Ldec_blocks_more_than_3
sub w12, w12, #1
mov v3.16b, v2.16b
movi v10.8b, #0
movi v11.8b, #0
cmp x5, #32
movi v9.8b, #0
mov v2.16b, v1.16b
b.gt Ldec_blocks_more_than_2
sub w12, w12, #1
mov v3.16b, v1.16b
cmp x5, #16
b.gt Ldec_blocks_more_than_1
sub w12, w12, #1
b Ldec_blocks_less_than_1
Ldec_blocks_more_than_3: // blocks left > 3
rev64 v4.16b, v5.16b // GHASH final-3 block
ld1 { v5.16b}, [x0], #16 // AES final-2 block - load ciphertext
stp x6, x7, [x2], #16 // AES final-3 block - store result
mov d10, v17.d[1] // GHASH final-3 block - mid
eor v4.16b, v4.16b, v8.16b // feed in partial tag
eor v0.16b, v5.16b, v1.16b // AES final-2 block - result
mov d22, v4.d[1] // GHASH final-3 block - mid
mov x6, v0.d[0] // AES final-2 block - mov low
mov x7, v0.d[1] // AES final-2 block - mov high
eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid
movi v8.8b, #0 // suppress further partial tag feed in
pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high
pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid
eor x6, x6, x13 // AES final-2 block - round N low
pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low
eor x7, x7, x14 // AES final-2 block - round N high
Ldec_blocks_more_than_2: // blocks left > 2
rev64 v4.16b, v5.16b // GHASH final-2 block
ld1 { v5.16b}, [x0], #16 // AES final-1 block - load ciphertext
eor v4.16b, v4.16b, v8.16b // feed in partial tag
stp x6, x7, [x2], #16 // AES final-2 block - store result
eor v0.16b, v5.16b, v2.16b // AES final-1 block - result
mov d22, v4.d[1] // GHASH final-2 block - mid
pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low
pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high
eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid
mov x6, v0.d[0] // AES final-1 block - mov low
mov x7, v0.d[1] // AES final-1 block - mov high
eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low
movi v8.8b, #0 // suppress further partial tag feed in
pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid
eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high
eor x6, x6, x13 // AES final-1 block - round N low
eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid
eor x7, x7, x14 // AES final-1 block - round N high
Ldec_blocks_more_than_1: // blocks left > 1
stp x6, x7, [x2], #16 // AES final-1 block - store result
rev64 v4.16b, v5.16b // GHASH final-1 block
ld1 { v5.16b}, [x0], #16 // AES final block - load ciphertext
eor v4.16b, v4.16b, v8.16b // feed in partial tag
movi v8.8b, #0 // suppress further partial tag feed in
mov d22, v4.d[1] // GHASH final-1 block - mid
eor v0.16b, v5.16b, v3.16b // AES final block - result
pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high
eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid
pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low
mov x6, v0.d[0] // AES final block - mov low
ins v22.d[1], v22.d[0] // GHASH final-1 block - mid
mov x7, v0.d[1] // AES final block - mov high
pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid
eor x6, x6, x13 // AES final block - round N low
eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low
eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high
eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid
eor x7, x7, x14 // AES final block - round N high
Ldec_blocks_less_than_1: // blocks left <= 1
and x1, x1, #127 // bit_length %= 128
mvn x14, xzr // rkN_h = 0xffffffffffffffff
sub x1, x1, #128 // bit_length -= 128
mvn x13, xzr // rkN_l = 0xffffffffffffffff
ldp x4, x5, [x2] // load existing bytes we need to not overwrite
neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128])
and x1, x1, #127 // bit_length %= 128
lsr x14, x14, x1 // rkN_h is mask for top 64b of last block
cmp x1, #64
csel x9, x13, x14, lt
csel x10, x14, xzr, lt
fmov d0, x9 // ctr0b is mask for last block
and x6, x6, x9
mov v0.d[1], x10
bic x4, x4, x9 // mask out low existing bytes
rev w9, w12
bic x5, x5, x10 // mask out high existing bytes
orr x6, x6, x4
and x7, x7, x10
orr x7, x7, x5
and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits
rev64 v4.16b, v5.16b // GHASH final block
eor v4.16b, v4.16b, v8.16b // feed in partial tag
pmull v21.1q, v4.1d, v12.1d // GHASH final block - low
mov d8, v4.d[1] // GHASH final block - mid
eor v8.8b, v8.8b, v4.8b // GHASH final block - mid
pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high
pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid
eor v9.16b, v9.16b, v20.16b // GHASH final block - high
eor v11.16b, v11.16b, v21.16b // GHASH final block - low
eor v10.16b, v10.16b, v8.16b // GHASH final block - mid
movi v8.8b, #0xc2
eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
shl d8, d8, #56 // mod_constant
eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
eor v11.16b, v11.16b, v8.16b // MODULO - fold into low
stp x6, x7, [x2]
str w9, [x16, #12] // store the updated counter
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
mov x0, x15
st1 { v11.16b }, [x3]
ldp x19, x20, [sp, #16]
ldp x21, x22, [sp, #32]
ldp x23, x24, [sp, #48]
ldp d8, d9, [sp, #64]
ldp d10, d11, [sp, #80]
ldp d12, d13, [sp, #96]
ldp d14, d15, [sp, #112]
ldp x29, x30, [sp], #128
AARCH64_VALIDATE_LINK_REGISTER
ret
#endif
#endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(__APPLE__)
|
Vtyeshe/geoai-backend
| 17,785
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/bsaes-armv7-linux32.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_ARM) && defined(__ELF__)
@ Copyright 2012-2016 The OpenSSL Project Authors. All Rights Reserved.
@
@ Licensed under the Apache License, Version 2.0 (the "License");
@ you may not use this file except in compliance with the License.
@ You may obtain a copy of the License at
@
@ https://www.apache.org/licenses/LICENSE-2.0
@
@ Unless required by applicable law or agreed to in writing, software
@ distributed under the License is distributed on an "AS IS" BASIS,
@ WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
@ See the License for the specific language governing permissions and
@ limitations under the License.
@ ====================================================================
@ Written by Andy Polyakov <appro@openssl.org> for the OpenSSL
@ project.
@
@ Specific modes and adaptation for Linux kernel by Ard Biesheuvel
@ of Linaro.
@ ====================================================================
@ Bit-sliced AES for ARM NEON
@
@ February 2012.
@
@ This implementation is direct adaptation of bsaes-x86_64 module for
@ ARM NEON. Except that this module is endian-neutral [in sense that
@ it can be compiled for either endianness] by courtesy of vld1.8's
@ neutrality. Initial version doesn't implement interface to OpenSSL,
@ only low-level primitives and unsupported entry points, just enough
@ to collect performance results, which for Cortex-A8 core are:
@
@ encrypt 19.5 cycles per byte processed with 128-bit key
@ decrypt 22.1 cycles per byte processed with 128-bit key
@ key conv. 440 cycles per 128-bit key/0.18 of 8x block
@
@ Snapdragon S4 encrypts byte in 17.6 cycles and decrypts in 19.7,
@ which is [much] worse than anticipated (for further details see
@ http://www.openssl.org/~appro/Snapdragon-S4.html).
@
@ Cortex-A15 manages in 14.2/16.1 cycles [when integer-only code
@ manages in 20.0 cycles].
@
@ When comparing to x86_64 results keep in mind that NEON unit is
@ [mostly] single-issue and thus can't [fully] benefit from
@ instruction-level parallelism. And when comparing to aes-armv4
@ results keep in mind key schedule conversion overhead (see
@ bsaes-x86_64.pl for further details)...
@
@ <appro@openssl.org>
@ April-August 2013
@ Add CBC, CTR and XTS subroutines and adapt for kernel use; courtesy of Ard.
#ifndef __KERNEL__
# define VFP_ABI_PUSH vstmdb sp!,{d8-d15}
# define VFP_ABI_POP vldmia sp!,{d8-d15}
# define VFP_ABI_FRAME 0x40
#else
# define VFP_ABI_PUSH
# define VFP_ABI_POP
# define VFP_ABI_FRAME 0
# define BSAES_ASM_EXTENDED_KEY
# define __ARM_MAX_ARCH__ 7
#endif
#ifdef __thumb__
# define adrl adr
#endif
#if __ARM_MAX_ARCH__>=7
.arch armv7-a
.fpu neon
.text
.syntax unified @ ARMv7-capable assembler is expected to handle this
#if defined(__thumb2__) && !defined(__APPLE__)
.thumb
#else
.code 32
# undef __thumb2__
#endif
.type _bsaes_const,%object
.align 6
_bsaes_const:
.LM0ISR:@ InvShiftRows constants
.quad 0x0a0e0206070b0f03, 0x0004080c0d010509
.LISR:
.quad 0x0504070602010003, 0x0f0e0d0c080b0a09
.LISRM0:
.quad 0x01040b0e0205080f, 0x0306090c00070a0d
.LM0SR:@ ShiftRows constants
.quad 0x0a0e02060f03070b, 0x0004080c05090d01
.LSR:
.quad 0x0504070600030201, 0x0f0e0d0c0a09080b
.LSRM0:
.quad 0x0304090e00050a0f, 0x01060b0c0207080d
.LM0:
.quad 0x02060a0e03070b0f, 0x0004080c0105090d
.LREVM0SR:
.quad 0x090d01050c000408, 0x03070b0f060a0e02
.byte 66,105,116,45,115,108,105,99,101,100,32,65,69,83,32,102,111,114,32,78,69,79,78,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
.align 2
.align 6
.size _bsaes_const,.-_bsaes_const
.type _bsaes_encrypt8,%function
.align 4
_bsaes_encrypt8:
adr r6,.
vldmia r4!, {q9} @ round 0 key
#if defined(__thumb2__) || defined(__APPLE__)
adr r6,.LM0SR
#else
sub r6,r6,#_bsaes_encrypt8-.LM0SR
#endif
vldmia r6!, {q8} @ .LM0SR
_bsaes_encrypt8_alt:
veor q10, q0, q9 @ xor with round0 key
veor q11, q1, q9
vtbl.8 d0, {q10}, d16
vtbl.8 d1, {q10}, d17
veor q12, q2, q9
vtbl.8 d2, {q11}, d16
vtbl.8 d3, {q11}, d17
veor q13, q3, q9
vtbl.8 d4, {q12}, d16
vtbl.8 d5, {q12}, d17
veor q14, q4, q9
vtbl.8 d6, {q13}, d16
vtbl.8 d7, {q13}, d17
veor q15, q5, q9
vtbl.8 d8, {q14}, d16
vtbl.8 d9, {q14}, d17
veor q10, q6, q9
vtbl.8 d10, {q15}, d16
vtbl.8 d11, {q15}, d17
veor q11, q7, q9
vtbl.8 d12, {q10}, d16
vtbl.8 d13, {q10}, d17
vtbl.8 d14, {q11}, d16
vtbl.8 d15, {q11}, d17
_bsaes_encrypt8_bitslice:
vmov.i8 q8,#0x55 @ compose .LBS0
vmov.i8 q9,#0x33 @ compose .LBS1
vshr.u64 q10, q6, #1
vshr.u64 q11, q4, #1
veor q10, q10, q7
veor q11, q11, q5
vand q10, q10, q8
vand q11, q11, q8
veor q7, q7, q10
vshl.u64 q10, q10, #1
veor q5, q5, q11
vshl.u64 q11, q11, #1
veor q6, q6, q10
veor q4, q4, q11
vshr.u64 q10, q2, #1
vshr.u64 q11, q0, #1
veor q10, q10, q3
veor q11, q11, q1
vand q10, q10, q8
vand q11, q11, q8
veor q3, q3, q10
vshl.u64 q10, q10, #1
veor q1, q1, q11
vshl.u64 q11, q11, #1
veor q2, q2, q10
veor q0, q0, q11
vmov.i8 q8,#0x0f @ compose .LBS2
vshr.u64 q10, q5, #2
vshr.u64 q11, q4, #2
veor q10, q10, q7
veor q11, q11, q6
vand q10, q10, q9
vand q11, q11, q9
veor q7, q7, q10
vshl.u64 q10, q10, #2
veor q6, q6, q11
vshl.u64 q11, q11, #2
veor q5, q5, q10
veor q4, q4, q11
vshr.u64 q10, q1, #2
vshr.u64 q11, q0, #2
veor q10, q10, q3
veor q11, q11, q2
vand q10, q10, q9
vand q11, q11, q9
veor q3, q3, q10
vshl.u64 q10, q10, #2
veor q2, q2, q11
vshl.u64 q11, q11, #2
veor q1, q1, q10
veor q0, q0, q11
vshr.u64 q10, q3, #4
vshr.u64 q11, q2, #4
veor q10, q10, q7
veor q11, q11, q6
vand q10, q10, q8
vand q11, q11, q8
veor q7, q7, q10
vshl.u64 q10, q10, #4
veor q6, q6, q11
vshl.u64 q11, q11, #4
veor q3, q3, q10
veor q2, q2, q11
vshr.u64 q10, q1, #4
vshr.u64 q11, q0, #4
veor q10, q10, q5
veor q11, q11, q4
vand q10, q10, q8
vand q11, q11, q8
veor q5, q5, q10
vshl.u64 q10, q10, #4
veor q4, q4, q11
vshl.u64 q11, q11, #4
veor q1, q1, q10
veor q0, q0, q11
sub r5,r5,#1
b .Lenc_sbox
.align 4
.Lenc_loop:
vldmia r4!, {q8,q9,q10,q11}
veor q8, q8, q0
veor q9, q9, q1
vtbl.8 d0, {q8}, d24
vtbl.8 d1, {q8}, d25
vldmia r4!, {q8}
veor q10, q10, q2
vtbl.8 d2, {q9}, d24
vtbl.8 d3, {q9}, d25
vldmia r4!, {q9}
veor q11, q11, q3
vtbl.8 d4, {q10}, d24
vtbl.8 d5, {q10}, d25
vldmia r4!, {q10}
vtbl.8 d6, {q11}, d24
vtbl.8 d7, {q11}, d25
vldmia r4!, {q11}
veor q8, q8, q4
veor q9, q9, q5
vtbl.8 d8, {q8}, d24
vtbl.8 d9, {q8}, d25
veor q10, q10, q6
vtbl.8 d10, {q9}, d24
vtbl.8 d11, {q9}, d25
veor q11, q11, q7
vtbl.8 d12, {q10}, d24
vtbl.8 d13, {q10}, d25
vtbl.8 d14, {q11}, d24
vtbl.8 d15, {q11}, d25
.Lenc_sbox:
veor q2, q2, q1
veor q5, q5, q6
veor q3, q3, q0
veor q6, q6, q2
veor q5, q5, q0
veor q6, q6, q3
veor q3, q3, q7
veor q7, q7, q5
veor q3, q3, q4
veor q4, q4, q5
veor q2, q2, q7
veor q3, q3, q1
veor q1, q1, q5
veor q11, q7, q4
veor q10, q1, q2
veor q9, q5, q3
veor q13, q2, q4
vmov q8, q10
veor q12, q6, q0
vorr q10, q10, q9
veor q15, q11, q8
vand q14, q11, q12
vorr q11, q11, q12
veor q12, q12, q9
vand q8, q8, q9
veor q9, q3, q0
vand q15, q15, q12
vand q13, q13, q9
veor q9, q7, q1
veor q12, q5, q6
veor q11, q11, q13
veor q10, q10, q13
vand q13, q9, q12
vorr q9, q9, q12
veor q11, q11, q15
veor q8, q8, q13
veor q10, q10, q14
veor q9, q9, q15
veor q8, q8, q14
vand q12, q2, q3
veor q9, q9, q14
vand q13, q4, q0
vand q14, q1, q5
vorr q15, q7, q6
veor q11, q11, q12
veor q9, q9, q14
veor q8, q8, q15
veor q10, q10, q13
@ Inv_GF16 0, 1, 2, 3, s0, s1, s2, s3
@ new smaller inversion
vand q14, q11, q9
vmov q12, q8
veor q13, q10, q14
veor q15, q8, q14
veor q14, q8, q14 @ q14=q15
vbsl q13, q9, q8
vbsl q15, q11, q10
veor q11, q11, q10
vbsl q12, q13, q14
vbsl q8, q14, q13
vand q14, q12, q15
veor q9, q9, q8
veor q14, q14, q11
veor q12, q6, q0
veor q8, q5, q3
veor q10, q15, q14
vand q10, q10, q6
veor q6, q6, q5
vand q11, q5, q15
vand q6, q6, q14
veor q5, q11, q10
veor q6, q6, q11
veor q15, q15, q13
veor q14, q14, q9
veor q11, q15, q14
veor q10, q13, q9
vand q11, q11, q12
vand q10, q10, q0
veor q12, q12, q8
veor q0, q0, q3
vand q8, q8, q15
vand q3, q3, q13
vand q12, q12, q14
vand q0, q0, q9
veor q8, q8, q12
veor q0, q0, q3
veor q12, q12, q11
veor q3, q3, q10
veor q6, q6, q12
veor q0, q0, q12
veor q5, q5, q8
veor q3, q3, q8
veor q12, q7, q4
veor q8, q1, q2
veor q11, q15, q14
veor q10, q13, q9
vand q11, q11, q12
vand q10, q10, q4
veor q12, q12, q8
veor q4, q4, q2
vand q8, q8, q15
vand q2, q2, q13
vand q12, q12, q14
vand q4, q4, q9
veor q8, q8, q12
veor q4, q4, q2
veor q12, q12, q11
veor q2, q2, q10
veor q15, q15, q13
veor q14, q14, q9
veor q10, q15, q14
vand q10, q10, q7
veor q7, q7, q1
vand q11, q1, q15
vand q7, q7, q14
veor q1, q11, q10
veor q7, q7, q11
veor q7, q7, q12
veor q4, q4, q12
veor q1, q1, q8
veor q2, q2, q8
veor q7, q7, q0
veor q1, q1, q6
veor q6, q6, q0
veor q4, q4, q7
veor q0, q0, q1
veor q1, q1, q5
veor q5, q5, q2
veor q2, q2, q3
veor q3, q3, q5
veor q4, q4, q5
veor q6, q6, q3
subs r5,r5,#1
bcc .Lenc_done
vext.8 q8, q0, q0, #12 @ x0 <<< 32
vext.8 q9, q1, q1, #12
veor q0, q0, q8 @ x0 ^ (x0 <<< 32)
vext.8 q10, q4, q4, #12
veor q1, q1, q9
vext.8 q11, q6, q6, #12
veor q4, q4, q10
vext.8 q12, q3, q3, #12
veor q6, q6, q11
vext.8 q13, q7, q7, #12
veor q3, q3, q12
vext.8 q14, q2, q2, #12
veor q7, q7, q13
vext.8 q15, q5, q5, #12
veor q2, q2, q14
veor q9, q9, q0
veor q5, q5, q15
vext.8 q0, q0, q0, #8 @ (x0 ^ (x0 <<< 32)) <<< 64)
veor q10, q10, q1
veor q8, q8, q5
veor q9, q9, q5
vext.8 q1, q1, q1, #8
veor q13, q13, q3
veor q0, q0, q8
veor q14, q14, q7
veor q1, q1, q9
vext.8 q8, q3, q3, #8
veor q12, q12, q6
vext.8 q9, q7, q7, #8
veor q15, q15, q2
vext.8 q3, q6, q6, #8
veor q11, q11, q4
vext.8 q7, q5, q5, #8
veor q12, q12, q5
vext.8 q6, q2, q2, #8
veor q11, q11, q5
vext.8 q2, q4, q4, #8
veor q5, q9, q13
veor q4, q8, q12
veor q3, q3, q11
veor q7, q7, q15
veor q6, q6, q14
@ vmov q4, q8
veor q2, q2, q10
@ vmov q5, q9
vldmia r6, {q12} @ .LSR
ite eq @ Thumb2 thing, samity check in ARM
addeq r6,r6,#0x10
bne .Lenc_loop
vldmia r6, {q12} @ .LSRM0
b .Lenc_loop
.align 4
.Lenc_done:
vmov.i8 q8,#0x55 @ compose .LBS0
vmov.i8 q9,#0x33 @ compose .LBS1
vshr.u64 q10, q2, #1
vshr.u64 q11, q3, #1
veor q10, q10, q5
veor q11, q11, q7
vand q10, q10, q8
vand q11, q11, q8
veor q5, q5, q10
vshl.u64 q10, q10, #1
veor q7, q7, q11
vshl.u64 q11, q11, #1
veor q2, q2, q10
veor q3, q3, q11
vshr.u64 q10, q4, #1
vshr.u64 q11, q0, #1
veor q10, q10, q6
veor q11, q11, q1
vand q10, q10, q8
vand q11, q11, q8
veor q6, q6, q10
vshl.u64 q10, q10, #1
veor q1, q1, q11
vshl.u64 q11, q11, #1
veor q4, q4, q10
veor q0, q0, q11
vmov.i8 q8,#0x0f @ compose .LBS2
vshr.u64 q10, q7, #2
vshr.u64 q11, q3, #2
veor q10, q10, q5
veor q11, q11, q2
vand q10, q10, q9
vand q11, q11, q9
veor q5, q5, q10
vshl.u64 q10, q10, #2
veor q2, q2, q11
vshl.u64 q11, q11, #2
veor q7, q7, q10
veor q3, q3, q11
vshr.u64 q10, q1, #2
vshr.u64 q11, q0, #2
veor q10, q10, q6
veor q11, q11, q4
vand q10, q10, q9
vand q11, q11, q9
veor q6, q6, q10
vshl.u64 q10, q10, #2
veor q4, q4, q11
vshl.u64 q11, q11, #2
veor q1, q1, q10
veor q0, q0, q11
vshr.u64 q10, q6, #4
vshr.u64 q11, q4, #4
veor q10, q10, q5
veor q11, q11, q2
vand q10, q10, q8
vand q11, q11, q8
veor q5, q5, q10
vshl.u64 q10, q10, #4
veor q2, q2, q11
vshl.u64 q11, q11, #4
veor q6, q6, q10
veor q4, q4, q11
vshr.u64 q10, q1, #4
vshr.u64 q11, q0, #4
veor q10, q10, q7
veor q11, q11, q3
vand q10, q10, q8
vand q11, q11, q8
veor q7, q7, q10
vshl.u64 q10, q10, #4
veor q3, q3, q11
vshl.u64 q11, q11, #4
veor q1, q1, q10
veor q0, q0, q11
vldmia r4, {q8} @ last round key
veor q4, q4, q8
veor q6, q6, q8
veor q3, q3, q8
veor q7, q7, q8
veor q2, q2, q8
veor q5, q5, q8
veor q0, q0, q8
veor q1, q1, q8
bx lr
.size _bsaes_encrypt8,.-_bsaes_encrypt8
.type _bsaes_key_convert,%function
.align 4
_bsaes_key_convert:
adr r6,.
vld1.8 {q7}, [r4]! @ load round 0 key
#if defined(__thumb2__) || defined(__APPLE__)
adr r6,.LM0
#else
sub r6,r6,#_bsaes_key_convert-.LM0
#endif
vld1.8 {q15}, [r4]! @ load round 1 key
vmov.i8 q8, #0x01 @ bit masks
vmov.i8 q9, #0x02
vmov.i8 q10, #0x04
vmov.i8 q11, #0x08
vmov.i8 q12, #0x10
vmov.i8 q13, #0x20
vldmia r6, {q14} @ .LM0
#ifdef __ARMEL__
vrev32.8 q7, q7
vrev32.8 q15, q15
#endif
sub r5,r5,#1
vstmia r12!, {q7} @ save round 0 key
b .Lkey_loop
.align 4
.Lkey_loop:
vtbl.8 d14,{q15},d28
vtbl.8 d15,{q15},d29
vmov.i8 q6, #0x40
vmov.i8 q15, #0x80
vtst.8 q0, q7, q8
vtst.8 q1, q7, q9
vtst.8 q2, q7, q10
vtst.8 q3, q7, q11
vtst.8 q4, q7, q12
vtst.8 q5, q7, q13
vtst.8 q6, q7, q6
vtst.8 q7, q7, q15
vld1.8 {q15}, [r4]! @ load next round key
vmvn q0, q0 @ "pnot"
vmvn q1, q1
vmvn q5, q5
vmvn q6, q6
#ifdef __ARMEL__
vrev32.8 q15, q15
#endif
subs r5,r5,#1
vstmia r12!,{q0,q1,q2,q3,q4,q5,q6,q7} @ write bit-sliced round key
bne .Lkey_loop
vmov.i8 q7,#0x63 @ compose .L63
@ don't save last round key
bx lr
.size _bsaes_key_convert,.-_bsaes_key_convert
.globl bsaes_ctr32_encrypt_blocks
.hidden bsaes_ctr32_encrypt_blocks
.type bsaes_ctr32_encrypt_blocks,%function
.align 5
bsaes_ctr32_encrypt_blocks:
@ In OpenSSL, short inputs fall back to aes_nohw_* here. We patch this
@ out to retain a constant-time implementation.
mov ip, sp
stmdb sp!, {r4,r5,r6,r7,r8,r9,r10, lr}
VFP_ABI_PUSH
ldr r8, [ip] @ ctr is 1st arg on the stack
sub sp, sp, #0x10 @ scratch space to carry over the ctr
mov r9, sp @ save sp
ldr r10, [r3, #240] @ get # of rounds
#ifndef BSAES_ASM_EXTENDED_KEY
@ allocate the key schedule on the stack
sub r12, sp, r10, lsl#7 @ 128 bytes per inner round key
add r12, #96 @ size of bit-sliced key schedule
@ populate the key schedule
mov r4, r3 @ pass key
mov r5, r10 @ pass # of rounds
mov sp, r12 @ sp is sp
bl _bsaes_key_convert
veor q7,q7,q15 @ fix up last round key
vstmia r12, {q7} @ save last round key
vld1.8 {q0}, [r8] @ load counter
#ifdef __APPLE__
mov r8, #:lower16:(.LREVM0SR-.LM0)
add r8, r6, r8
#else
add r8, r6, #.LREVM0SR-.LM0 @ borrow r8
#endif
vldmia sp, {q4} @ load round0 key
#else
ldr r12, [r3, #244]
eors r12, #1
beq 0f
@ populate the key schedule
str r12, [r3, #244]
mov r4, r3 @ pass key
mov r5, r10 @ pass # of rounds
add r12, r3, #248 @ pass key schedule
bl _bsaes_key_convert
veor q7,q7,q15 @ fix up last round key
vstmia r12, {q7} @ save last round key
.align 2
add r12, r3, #248
vld1.8 {q0}, [r8] @ load counter
adrl r8, .LREVM0SR @ borrow r8
vldmia r12, {q4} @ load round0 key
sub sp, #0x10 @ place for adjusted round0 key
#endif
vmov.i32 q8,#1 @ compose 1<<96
veor q9,q9,q9
vrev32.8 q0,q0
vext.8 q8,q9,q8,#4
vrev32.8 q4,q4
vadd.u32 q9,q8,q8 @ compose 2<<96
vstmia sp, {q4} @ save adjusted round0 key
b .Lctr_enc_loop
.align 4
.Lctr_enc_loop:
vadd.u32 q10, q8, q9 @ compose 3<<96
vadd.u32 q1, q0, q8 @ +1
vadd.u32 q2, q0, q9 @ +2
vadd.u32 q3, q0, q10 @ +3
vadd.u32 q4, q1, q10
vadd.u32 q5, q2, q10
vadd.u32 q6, q3, q10
vadd.u32 q7, q4, q10
vadd.u32 q10, q5, q10 @ next counter
@ Borrow prologue from _bsaes_encrypt8 to use the opportunity
@ to flip byte order in 32-bit counter
vldmia sp, {q9} @ load round0 key
#ifndef BSAES_ASM_EXTENDED_KEY
add r4, sp, #0x10 @ pass next round key
#else
add r4, r3, #264
#endif
vldmia r8, {q8} @ .LREVM0SR
mov r5, r10 @ pass rounds
vstmia r9, {q10} @ save next counter
#ifdef __APPLE__
mov r6, #:lower16:(.LREVM0SR-.LSR)
sub r6, r8, r6
#else
sub r6, r8, #.LREVM0SR-.LSR @ pass constants
#endif
bl _bsaes_encrypt8_alt
subs r2, r2, #8
blo .Lctr_enc_loop_done
vld1.8 {q8,q9}, [r0]! @ load input
vld1.8 {q10,q11}, [r0]!
veor q0, q8
veor q1, q9
vld1.8 {q12,q13}, [r0]!
veor q4, q10
veor q6, q11
vld1.8 {q14,q15}, [r0]!
veor q3, q12
vst1.8 {q0,q1}, [r1]! @ write output
veor q7, q13
veor q2, q14
vst1.8 {q4}, [r1]!
veor q5, q15
vst1.8 {q6}, [r1]!
vmov.i32 q8, #1 @ compose 1<<96
vst1.8 {q3}, [r1]!
veor q9, q9, q9
vst1.8 {q7}, [r1]!
vext.8 q8, q9, q8, #4
vst1.8 {q2}, [r1]!
vadd.u32 q9,q8,q8 @ compose 2<<96
vst1.8 {q5}, [r1]!
vldmia r9, {q0} @ load counter
bne .Lctr_enc_loop
b .Lctr_enc_done
.align 4
.Lctr_enc_loop_done:
add r2, r2, #8
vld1.8 {q8}, [r0]! @ load input
veor q0, q8
vst1.8 {q0}, [r1]! @ write output
cmp r2, #2
blo .Lctr_enc_done
vld1.8 {q9}, [r0]!
veor q1, q9
vst1.8 {q1}, [r1]!
beq .Lctr_enc_done
vld1.8 {q10}, [r0]!
veor q4, q10
vst1.8 {q4}, [r1]!
cmp r2, #4
blo .Lctr_enc_done
vld1.8 {q11}, [r0]!
veor q6, q11
vst1.8 {q6}, [r1]!
beq .Lctr_enc_done
vld1.8 {q12}, [r0]!
veor q3, q12
vst1.8 {q3}, [r1]!
cmp r2, #6
blo .Lctr_enc_done
vld1.8 {q13}, [r0]!
veor q7, q13
vst1.8 {q7}, [r1]!
beq .Lctr_enc_done
vld1.8 {q14}, [r0]
veor q2, q14
vst1.8 {q2}, [r1]!
.Lctr_enc_done:
vmov.i32 q0, #0
vmov.i32 q1, #0
#ifndef BSAES_ASM_EXTENDED_KEY
.Lctr_enc_bzero:@ wipe key schedule [if any]
vstmia sp!, {q0,q1}
cmp sp, r9
bne .Lctr_enc_bzero
#else
vstmia sp, {q0,q1}
#endif
mov sp, r9
add sp, #0x10 @ add sp,r9,#0x10 is no good for thumb
VFP_ABI_POP
ldmia sp!, {r4,r5,r6,r7,r8,r9,r10, pc} @ return
@ OpenSSL contains aes_nohw_* fallback code here. We patch this
@ out to retain a constant-time implementation.
.size bsaes_ctr32_encrypt_blocks,.-bsaes_ctr32_encrypt_blocks
#endif
#endif // !OPENSSL_NO_ASM && defined(OPENSSL_ARM) && defined(__ELF__)
|
Vtyeshe/geoai-backend
| 12,622
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/chacha-x86-elf.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__)
.text
.globl ChaCha20_ctr32_ssse3
.hidden ChaCha20_ctr32_ssse3
.type ChaCha20_ctr32_ssse3,@function
.align 16
ChaCha20_ctr32_ssse3:
.L_ChaCha20_ctr32_ssse3_begin:
pushl %ebp
pushl %ebx
pushl %esi
pushl %edi
call .Lpic_point
.Lpic_point:
popl %eax
movl 20(%esp),%edi
movl 24(%esp),%esi
movl 28(%esp),%ecx
movl 32(%esp),%edx
movl 36(%esp),%ebx
movl %esp,%ebp
subl $524,%esp
andl $-64,%esp
movl %ebp,512(%esp)
leal .Lssse3_data-.Lpic_point(%eax),%eax
movdqu (%ebx),%xmm3
cmpl $256,%ecx
jb .L0001x
movl %edx,516(%esp)
movl %ebx,520(%esp)
subl $256,%ecx
leal 384(%esp),%ebp
movdqu (%edx),%xmm7
pshufd $0,%xmm3,%xmm0
pshufd $85,%xmm3,%xmm1
pshufd $170,%xmm3,%xmm2
pshufd $255,%xmm3,%xmm3
paddd 48(%eax),%xmm0
pshufd $0,%xmm7,%xmm4
pshufd $85,%xmm7,%xmm5
psubd 64(%eax),%xmm0
pshufd $170,%xmm7,%xmm6
pshufd $255,%xmm7,%xmm7
movdqa %xmm0,64(%ebp)
movdqa %xmm1,80(%ebp)
movdqa %xmm2,96(%ebp)
movdqa %xmm3,112(%ebp)
movdqu 16(%edx),%xmm3
movdqa %xmm4,-64(%ebp)
movdqa %xmm5,-48(%ebp)
movdqa %xmm6,-32(%ebp)
movdqa %xmm7,-16(%ebp)
movdqa 32(%eax),%xmm7
leal 128(%esp),%ebx
pshufd $0,%xmm3,%xmm0
pshufd $85,%xmm3,%xmm1
pshufd $170,%xmm3,%xmm2
pshufd $255,%xmm3,%xmm3
pshufd $0,%xmm7,%xmm4
pshufd $85,%xmm7,%xmm5
pshufd $170,%xmm7,%xmm6
pshufd $255,%xmm7,%xmm7
movdqa %xmm0,(%ebp)
movdqa %xmm1,16(%ebp)
movdqa %xmm2,32(%ebp)
movdqa %xmm3,48(%ebp)
movdqa %xmm4,-128(%ebp)
movdqa %xmm5,-112(%ebp)
movdqa %xmm6,-96(%ebp)
movdqa %xmm7,-80(%ebp)
leal 128(%esi),%esi
leal 128(%edi),%edi
jmp .L001outer_loop
.align 16
.L001outer_loop:
movdqa -112(%ebp),%xmm1
movdqa -96(%ebp),%xmm2
movdqa -80(%ebp),%xmm3
movdqa -48(%ebp),%xmm5
movdqa -32(%ebp),%xmm6
movdqa -16(%ebp),%xmm7
movdqa %xmm1,-112(%ebx)
movdqa %xmm2,-96(%ebx)
movdqa %xmm3,-80(%ebx)
movdqa %xmm5,-48(%ebx)
movdqa %xmm6,-32(%ebx)
movdqa %xmm7,-16(%ebx)
movdqa 32(%ebp),%xmm2
movdqa 48(%ebp),%xmm3
movdqa 64(%ebp),%xmm4
movdqa 80(%ebp),%xmm5
movdqa 96(%ebp),%xmm6
movdqa 112(%ebp),%xmm7
paddd 64(%eax),%xmm4
movdqa %xmm2,32(%ebx)
movdqa %xmm3,48(%ebx)
movdqa %xmm4,64(%ebx)
movdqa %xmm5,80(%ebx)
movdqa %xmm6,96(%ebx)
movdqa %xmm7,112(%ebx)
movdqa %xmm4,64(%ebp)
movdqa -128(%ebp),%xmm0
movdqa %xmm4,%xmm6
movdqa -64(%ebp),%xmm3
movdqa (%ebp),%xmm4
movdqa 16(%ebp),%xmm5
movl $10,%edx
nop
.align 16
.L002loop:
paddd %xmm3,%xmm0
movdqa %xmm3,%xmm2
pxor %xmm0,%xmm6
pshufb (%eax),%xmm6
paddd %xmm6,%xmm4
pxor %xmm4,%xmm2
movdqa -48(%ebx),%xmm3
movdqa %xmm2,%xmm1
pslld $12,%xmm2
psrld $20,%xmm1
por %xmm1,%xmm2
movdqa -112(%ebx),%xmm1
paddd %xmm2,%xmm0
movdqa 80(%ebx),%xmm7
pxor %xmm0,%xmm6
movdqa %xmm0,-128(%ebx)
pshufb 16(%eax),%xmm6
paddd %xmm6,%xmm4
movdqa %xmm6,64(%ebx)
pxor %xmm4,%xmm2
paddd %xmm3,%xmm1
movdqa %xmm2,%xmm0
pslld $7,%xmm2
psrld $25,%xmm0
pxor %xmm1,%xmm7
por %xmm0,%xmm2
movdqa %xmm4,(%ebx)
pshufb (%eax),%xmm7
movdqa %xmm2,-64(%ebx)
paddd %xmm7,%xmm5
movdqa 32(%ebx),%xmm4
pxor %xmm5,%xmm3
movdqa -32(%ebx),%xmm2
movdqa %xmm3,%xmm0
pslld $12,%xmm3
psrld $20,%xmm0
por %xmm0,%xmm3
movdqa -96(%ebx),%xmm0
paddd %xmm3,%xmm1
movdqa 96(%ebx),%xmm6
pxor %xmm1,%xmm7
movdqa %xmm1,-112(%ebx)
pshufb 16(%eax),%xmm7
paddd %xmm7,%xmm5
movdqa %xmm7,80(%ebx)
pxor %xmm5,%xmm3
paddd %xmm2,%xmm0
movdqa %xmm3,%xmm1
pslld $7,%xmm3
psrld $25,%xmm1
pxor %xmm0,%xmm6
por %xmm1,%xmm3
movdqa %xmm5,16(%ebx)
pshufb (%eax),%xmm6
movdqa %xmm3,-48(%ebx)
paddd %xmm6,%xmm4
movdqa 48(%ebx),%xmm5
pxor %xmm4,%xmm2
movdqa -16(%ebx),%xmm3
movdqa %xmm2,%xmm1
pslld $12,%xmm2
psrld $20,%xmm1
por %xmm1,%xmm2
movdqa -80(%ebx),%xmm1
paddd %xmm2,%xmm0
movdqa 112(%ebx),%xmm7
pxor %xmm0,%xmm6
movdqa %xmm0,-96(%ebx)
pshufb 16(%eax),%xmm6
paddd %xmm6,%xmm4
movdqa %xmm6,96(%ebx)
pxor %xmm4,%xmm2
paddd %xmm3,%xmm1
movdqa %xmm2,%xmm0
pslld $7,%xmm2
psrld $25,%xmm0
pxor %xmm1,%xmm7
por %xmm0,%xmm2
pshufb (%eax),%xmm7
movdqa %xmm2,-32(%ebx)
paddd %xmm7,%xmm5
pxor %xmm5,%xmm3
movdqa -48(%ebx),%xmm2
movdqa %xmm3,%xmm0
pslld $12,%xmm3
psrld $20,%xmm0
por %xmm0,%xmm3
movdqa -128(%ebx),%xmm0
paddd %xmm3,%xmm1
pxor %xmm1,%xmm7
movdqa %xmm1,-80(%ebx)
pshufb 16(%eax),%xmm7
paddd %xmm7,%xmm5
movdqa %xmm7,%xmm6
pxor %xmm5,%xmm3
paddd %xmm2,%xmm0
movdqa %xmm3,%xmm1
pslld $7,%xmm3
psrld $25,%xmm1
pxor %xmm0,%xmm6
por %xmm1,%xmm3
pshufb (%eax),%xmm6
movdqa %xmm3,-16(%ebx)
paddd %xmm6,%xmm4
pxor %xmm4,%xmm2
movdqa -32(%ebx),%xmm3
movdqa %xmm2,%xmm1
pslld $12,%xmm2
psrld $20,%xmm1
por %xmm1,%xmm2
movdqa -112(%ebx),%xmm1
paddd %xmm2,%xmm0
movdqa 64(%ebx),%xmm7
pxor %xmm0,%xmm6
movdqa %xmm0,-128(%ebx)
pshufb 16(%eax),%xmm6
paddd %xmm6,%xmm4
movdqa %xmm6,112(%ebx)
pxor %xmm4,%xmm2
paddd %xmm3,%xmm1
movdqa %xmm2,%xmm0
pslld $7,%xmm2
psrld $25,%xmm0
pxor %xmm1,%xmm7
por %xmm0,%xmm2
movdqa %xmm4,32(%ebx)
pshufb (%eax),%xmm7
movdqa %xmm2,-48(%ebx)
paddd %xmm7,%xmm5
movdqa (%ebx),%xmm4
pxor %xmm5,%xmm3
movdqa -16(%ebx),%xmm2
movdqa %xmm3,%xmm0
pslld $12,%xmm3
psrld $20,%xmm0
por %xmm0,%xmm3
movdqa -96(%ebx),%xmm0
paddd %xmm3,%xmm1
movdqa 80(%ebx),%xmm6
pxor %xmm1,%xmm7
movdqa %xmm1,-112(%ebx)
pshufb 16(%eax),%xmm7
paddd %xmm7,%xmm5
movdqa %xmm7,64(%ebx)
pxor %xmm5,%xmm3
paddd %xmm2,%xmm0
movdqa %xmm3,%xmm1
pslld $7,%xmm3
psrld $25,%xmm1
pxor %xmm0,%xmm6
por %xmm1,%xmm3
movdqa %xmm5,48(%ebx)
pshufb (%eax),%xmm6
movdqa %xmm3,-32(%ebx)
paddd %xmm6,%xmm4
movdqa 16(%ebx),%xmm5
pxor %xmm4,%xmm2
movdqa -64(%ebx),%xmm3
movdqa %xmm2,%xmm1
pslld $12,%xmm2
psrld $20,%xmm1
por %xmm1,%xmm2
movdqa -80(%ebx),%xmm1
paddd %xmm2,%xmm0
movdqa 96(%ebx),%xmm7
pxor %xmm0,%xmm6
movdqa %xmm0,-96(%ebx)
pshufb 16(%eax),%xmm6
paddd %xmm6,%xmm4
movdqa %xmm6,80(%ebx)
pxor %xmm4,%xmm2
paddd %xmm3,%xmm1
movdqa %xmm2,%xmm0
pslld $7,%xmm2
psrld $25,%xmm0
pxor %xmm1,%xmm7
por %xmm0,%xmm2
pshufb (%eax),%xmm7
movdqa %xmm2,-16(%ebx)
paddd %xmm7,%xmm5
pxor %xmm5,%xmm3
movdqa %xmm3,%xmm0
pslld $12,%xmm3
psrld $20,%xmm0
por %xmm0,%xmm3
movdqa -128(%ebx),%xmm0
paddd %xmm3,%xmm1
movdqa 64(%ebx),%xmm6
pxor %xmm1,%xmm7
movdqa %xmm1,-80(%ebx)
pshufb 16(%eax),%xmm7
paddd %xmm7,%xmm5
movdqa %xmm7,96(%ebx)
pxor %xmm5,%xmm3
movdqa %xmm3,%xmm1
pslld $7,%xmm3
psrld $25,%xmm1
por %xmm1,%xmm3
decl %edx
jnz .L002loop
movdqa %xmm3,-64(%ebx)
movdqa %xmm4,(%ebx)
movdqa %xmm5,16(%ebx)
movdqa %xmm6,64(%ebx)
movdqa %xmm7,96(%ebx)
movdqa -112(%ebx),%xmm1
movdqa -96(%ebx),%xmm2
movdqa -80(%ebx),%xmm3
paddd -128(%ebp),%xmm0
paddd -112(%ebp),%xmm1
paddd -96(%ebp),%xmm2
paddd -80(%ebp),%xmm3
movdqa %xmm0,%xmm6
punpckldq %xmm1,%xmm0
movdqa %xmm2,%xmm7
punpckldq %xmm3,%xmm2
punpckhdq %xmm1,%xmm6
punpckhdq %xmm3,%xmm7
movdqa %xmm0,%xmm1
punpcklqdq %xmm2,%xmm0
movdqa %xmm6,%xmm3
punpcklqdq %xmm7,%xmm6
punpckhqdq %xmm2,%xmm1
punpckhqdq %xmm7,%xmm3
movdqu -128(%esi),%xmm4
movdqu -64(%esi),%xmm5
movdqu (%esi),%xmm2
movdqu 64(%esi),%xmm7
leal 16(%esi),%esi
pxor %xmm0,%xmm4
movdqa -64(%ebx),%xmm0
pxor %xmm1,%xmm5
movdqa -48(%ebx),%xmm1
pxor %xmm2,%xmm6
movdqa -32(%ebx),%xmm2
pxor %xmm3,%xmm7
movdqa -16(%ebx),%xmm3
movdqu %xmm4,-128(%edi)
movdqu %xmm5,-64(%edi)
movdqu %xmm6,(%edi)
movdqu %xmm7,64(%edi)
leal 16(%edi),%edi
paddd -64(%ebp),%xmm0
paddd -48(%ebp),%xmm1
paddd -32(%ebp),%xmm2
paddd -16(%ebp),%xmm3
movdqa %xmm0,%xmm6
punpckldq %xmm1,%xmm0
movdqa %xmm2,%xmm7
punpckldq %xmm3,%xmm2
punpckhdq %xmm1,%xmm6
punpckhdq %xmm3,%xmm7
movdqa %xmm0,%xmm1
punpcklqdq %xmm2,%xmm0
movdqa %xmm6,%xmm3
punpcklqdq %xmm7,%xmm6
punpckhqdq %xmm2,%xmm1
punpckhqdq %xmm7,%xmm3
movdqu -128(%esi),%xmm4
movdqu -64(%esi),%xmm5
movdqu (%esi),%xmm2
movdqu 64(%esi),%xmm7
leal 16(%esi),%esi
pxor %xmm0,%xmm4
movdqa (%ebx),%xmm0
pxor %xmm1,%xmm5
movdqa 16(%ebx),%xmm1
pxor %xmm2,%xmm6
movdqa 32(%ebx),%xmm2
pxor %xmm3,%xmm7
movdqa 48(%ebx),%xmm3
movdqu %xmm4,-128(%edi)
movdqu %xmm5,-64(%edi)
movdqu %xmm6,(%edi)
movdqu %xmm7,64(%edi)
leal 16(%edi),%edi
paddd (%ebp),%xmm0
paddd 16(%ebp),%xmm1
paddd 32(%ebp),%xmm2
paddd 48(%ebp),%xmm3
movdqa %xmm0,%xmm6
punpckldq %xmm1,%xmm0
movdqa %xmm2,%xmm7
punpckldq %xmm3,%xmm2
punpckhdq %xmm1,%xmm6
punpckhdq %xmm3,%xmm7
movdqa %xmm0,%xmm1
punpcklqdq %xmm2,%xmm0
movdqa %xmm6,%xmm3
punpcklqdq %xmm7,%xmm6
punpckhqdq %xmm2,%xmm1
punpckhqdq %xmm7,%xmm3
movdqu -128(%esi),%xmm4
movdqu -64(%esi),%xmm5
movdqu (%esi),%xmm2
movdqu 64(%esi),%xmm7
leal 16(%esi),%esi
pxor %xmm0,%xmm4
movdqa 64(%ebx),%xmm0
pxor %xmm1,%xmm5
movdqa 80(%ebx),%xmm1
pxor %xmm2,%xmm6
movdqa 96(%ebx),%xmm2
pxor %xmm3,%xmm7
movdqa 112(%ebx),%xmm3
movdqu %xmm4,-128(%edi)
movdqu %xmm5,-64(%edi)
movdqu %xmm6,(%edi)
movdqu %xmm7,64(%edi)
leal 16(%edi),%edi
paddd 64(%ebp),%xmm0
paddd 80(%ebp),%xmm1
paddd 96(%ebp),%xmm2
paddd 112(%ebp),%xmm3
movdqa %xmm0,%xmm6
punpckldq %xmm1,%xmm0
movdqa %xmm2,%xmm7
punpckldq %xmm3,%xmm2
punpckhdq %xmm1,%xmm6
punpckhdq %xmm3,%xmm7
movdqa %xmm0,%xmm1
punpcklqdq %xmm2,%xmm0
movdqa %xmm6,%xmm3
punpcklqdq %xmm7,%xmm6
punpckhqdq %xmm2,%xmm1
punpckhqdq %xmm7,%xmm3
movdqu -128(%esi),%xmm4
movdqu -64(%esi),%xmm5
movdqu (%esi),%xmm2
movdqu 64(%esi),%xmm7
leal 208(%esi),%esi
pxor %xmm0,%xmm4
pxor %xmm1,%xmm5
pxor %xmm2,%xmm6
pxor %xmm3,%xmm7
movdqu %xmm4,-128(%edi)
movdqu %xmm5,-64(%edi)
movdqu %xmm6,(%edi)
movdqu %xmm7,64(%edi)
leal 208(%edi),%edi
subl $256,%ecx
jnc .L001outer_loop
addl $256,%ecx
jz .L003done
movl 520(%esp),%ebx
leal -128(%esi),%esi
movl 516(%esp),%edx
leal -128(%edi),%edi
movd 64(%ebp),%xmm2
movdqu (%ebx),%xmm3
paddd 96(%eax),%xmm2
pand 112(%eax),%xmm3
por %xmm2,%xmm3
.L0001x:
movdqa 32(%eax),%xmm0
movdqu (%edx),%xmm1
movdqu 16(%edx),%xmm2
movdqa (%eax),%xmm6
movdqa 16(%eax),%xmm7
movl %ebp,48(%esp)
movdqa %xmm0,(%esp)
movdqa %xmm1,16(%esp)
movdqa %xmm2,32(%esp)
movdqa %xmm3,48(%esp)
movl $10,%edx
jmp .L004loop1x
.align 16
.L005outer1x:
movdqa 80(%eax),%xmm3
movdqa (%esp),%xmm0
movdqa 16(%esp),%xmm1
movdqa 32(%esp),%xmm2
paddd 48(%esp),%xmm3
movl $10,%edx
movdqa %xmm3,48(%esp)
jmp .L004loop1x
.align 16
.L004loop1x:
paddd %xmm1,%xmm0
pxor %xmm0,%xmm3
.byte 102,15,56,0,222
paddd %xmm3,%xmm2
pxor %xmm2,%xmm1
movdqa %xmm1,%xmm4
psrld $20,%xmm1
pslld $12,%xmm4
por %xmm4,%xmm1
paddd %xmm1,%xmm0
pxor %xmm0,%xmm3
.byte 102,15,56,0,223
paddd %xmm3,%xmm2
pxor %xmm2,%xmm1
movdqa %xmm1,%xmm4
psrld $25,%xmm1
pslld $7,%xmm4
por %xmm4,%xmm1
pshufd $78,%xmm2,%xmm2
pshufd $57,%xmm1,%xmm1
pshufd $147,%xmm3,%xmm3
nop
paddd %xmm1,%xmm0
pxor %xmm0,%xmm3
.byte 102,15,56,0,222
paddd %xmm3,%xmm2
pxor %xmm2,%xmm1
movdqa %xmm1,%xmm4
psrld $20,%xmm1
pslld $12,%xmm4
por %xmm4,%xmm1
paddd %xmm1,%xmm0
pxor %xmm0,%xmm3
.byte 102,15,56,0,223
paddd %xmm3,%xmm2
pxor %xmm2,%xmm1
movdqa %xmm1,%xmm4
psrld $25,%xmm1
pslld $7,%xmm4
por %xmm4,%xmm1
pshufd $78,%xmm2,%xmm2
pshufd $147,%xmm1,%xmm1
pshufd $57,%xmm3,%xmm3
decl %edx
jnz .L004loop1x
paddd (%esp),%xmm0
paddd 16(%esp),%xmm1
paddd 32(%esp),%xmm2
paddd 48(%esp),%xmm3
cmpl $64,%ecx
jb .L006tail
movdqu (%esi),%xmm4
movdqu 16(%esi),%xmm5
pxor %xmm4,%xmm0
movdqu 32(%esi),%xmm4
pxor %xmm5,%xmm1
movdqu 48(%esi),%xmm5
pxor %xmm4,%xmm2
pxor %xmm5,%xmm3
leal 64(%esi),%esi
movdqu %xmm0,(%edi)
movdqu %xmm1,16(%edi)
movdqu %xmm2,32(%edi)
movdqu %xmm3,48(%edi)
leal 64(%edi),%edi
subl $64,%ecx
jnz .L005outer1x
jmp .L003done
.L006tail:
movdqa %xmm0,(%esp)
movdqa %xmm1,16(%esp)
movdqa %xmm2,32(%esp)
movdqa %xmm3,48(%esp)
xorl %eax,%eax
xorl %edx,%edx
xorl %ebp,%ebp
.L007tail_loop:
movb (%esp,%ebp,1),%al
movb (%esi,%ebp,1),%dl
leal 1(%ebp),%ebp
xorb %dl,%al
movb %al,-1(%edi,%ebp,1)
decl %ecx
jnz .L007tail_loop
.L003done:
movl 512(%esp),%esp
popl %edi
popl %esi
popl %ebx
popl %ebp
ret
.size ChaCha20_ctr32_ssse3,.-.L_ChaCha20_ctr32_ssse3_begin
.align 64
.Lssse3_data:
.byte 2,3,0,1,6,7,4,5,10,11,8,9,14,15,12,13
.byte 3,0,1,2,7,4,5,6,11,8,9,10,15,12,13,14
.long 1634760805,857760878,2036477234,1797285236
.long 0,1,2,3
.long 4,4,4,4
.long 1,0,0,0
.long 4,0,0,0
.long 0,-1,-1,-1
.align 64
.byte 67,104,97,67,104,97,50,48,32,102,111,114,32,120,56,54
.byte 44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32
.byte 60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111
.byte 114,103,62,0
#endif // !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__)
|
Vtyeshe/geoai-backend
| 4,229
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/x86-mont-elf.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__)
.text
.globl bn_mul_mont
.hidden bn_mul_mont
.type bn_mul_mont,@function
.align 16
bn_mul_mont:
.L_bn_mul_mont_begin:
pushl %ebp
pushl %ebx
pushl %esi
pushl %edi
xorl %eax,%eax
movl 40(%esp),%edi
leal 20(%esp),%esi
leal 24(%esp),%edx
addl $2,%edi
negl %edi
leal -32(%esp,%edi,4),%ebp
negl %edi
movl %ebp,%eax
subl %edx,%eax
andl $2047,%eax
subl %eax,%ebp
xorl %ebp,%edx
andl $2048,%edx
xorl $2048,%edx
subl %edx,%ebp
andl $-64,%ebp
movl %esp,%eax
subl %ebp,%eax
andl $-4096,%eax
movl %esp,%edx
leal (%ebp,%eax,1),%esp
movl (%esp),%eax
cmpl %ebp,%esp
ja .L000page_walk
jmp .L001page_walk_done
.align 16
.L000page_walk:
leal -4096(%esp),%esp
movl (%esp),%eax
cmpl %ebp,%esp
ja .L000page_walk
.L001page_walk_done:
movl (%esi),%eax
movl 4(%esi),%ebx
movl 8(%esi),%ecx
movl 12(%esi),%ebp
movl 16(%esi),%esi
movl (%esi),%esi
movl %eax,4(%esp)
movl %ebx,8(%esp)
movl %ecx,12(%esp)
movl %ebp,16(%esp)
movl %esi,20(%esp)
leal -3(%edi),%ebx
movl %edx,24(%esp)
movl $-1,%eax
movd %eax,%mm7
movl 8(%esp),%esi
movl 12(%esp),%edi
movl 16(%esp),%ebp
xorl %edx,%edx
xorl %ecx,%ecx
movd (%edi),%mm4
movd (%esi),%mm5
movd (%ebp),%mm3
pmuludq %mm4,%mm5
movq %mm5,%mm2
movq %mm5,%mm0
pand %mm7,%mm0
pmuludq 20(%esp),%mm5
pmuludq %mm5,%mm3
paddq %mm0,%mm3
movd 4(%ebp),%mm1
movd 4(%esi),%mm0
psrlq $32,%mm2
psrlq $32,%mm3
incl %ecx
.align 16
.L0021st:
pmuludq %mm4,%mm0
pmuludq %mm5,%mm1
paddq %mm0,%mm2
paddq %mm1,%mm3
movq %mm2,%mm0
pand %mm7,%mm0
movd 4(%ebp,%ecx,4),%mm1
paddq %mm0,%mm3
movd 4(%esi,%ecx,4),%mm0
psrlq $32,%mm2
movd %mm3,28(%esp,%ecx,4)
psrlq $32,%mm3
leal 1(%ecx),%ecx
cmpl %ebx,%ecx
jl .L0021st
pmuludq %mm4,%mm0
pmuludq %mm5,%mm1
paddq %mm0,%mm2
paddq %mm1,%mm3
movq %mm2,%mm0
pand %mm7,%mm0
paddq %mm0,%mm3
movd %mm3,28(%esp,%ecx,4)
psrlq $32,%mm2
psrlq $32,%mm3
paddq %mm2,%mm3
movq %mm3,32(%esp,%ebx,4)
incl %edx
.L003outer:
xorl %ecx,%ecx
movd (%edi,%edx,4),%mm4
movd (%esi),%mm5
movd 32(%esp),%mm6
movd (%ebp),%mm3
pmuludq %mm4,%mm5
paddq %mm6,%mm5
movq %mm5,%mm0
movq %mm5,%mm2
pand %mm7,%mm0
pmuludq 20(%esp),%mm5
pmuludq %mm5,%mm3
paddq %mm0,%mm3
movd 36(%esp),%mm6
movd 4(%ebp),%mm1
movd 4(%esi),%mm0
psrlq $32,%mm2
psrlq $32,%mm3
paddq %mm6,%mm2
incl %ecx
decl %ebx
.L004inner:
pmuludq %mm4,%mm0
pmuludq %mm5,%mm1
paddq %mm0,%mm2
paddq %mm1,%mm3
movq %mm2,%mm0
movd 36(%esp,%ecx,4),%mm6
pand %mm7,%mm0
movd 4(%ebp,%ecx,4),%mm1
paddq %mm0,%mm3
movd 4(%esi,%ecx,4),%mm0
psrlq $32,%mm2
movd %mm3,28(%esp,%ecx,4)
psrlq $32,%mm3
paddq %mm6,%mm2
decl %ebx
leal 1(%ecx),%ecx
jnz .L004inner
movl %ecx,%ebx
pmuludq %mm4,%mm0
pmuludq %mm5,%mm1
paddq %mm0,%mm2
paddq %mm1,%mm3
movq %mm2,%mm0
pand %mm7,%mm0
paddq %mm0,%mm3
movd %mm3,28(%esp,%ecx,4)
psrlq $32,%mm2
psrlq $32,%mm3
movd 36(%esp,%ebx,4),%mm6
paddq %mm2,%mm3
paddq %mm6,%mm3
movq %mm3,32(%esp,%ebx,4)
leal 1(%edx),%edx
cmpl %ebx,%edx
jle .L003outer
emms
jmp .L005common_tail
.align 16
.L005common_tail:
movl 16(%esp),%ebp
movl 4(%esp),%edi
leal 32(%esp),%esi
movl (%esi),%eax
movl %ebx,%ecx
xorl %edx,%edx
.align 16
.L006sub:
sbbl (%ebp,%edx,4),%eax
movl %eax,(%edi,%edx,4)
decl %ecx
movl 4(%esi,%edx,4),%eax
leal 1(%edx),%edx
jge .L006sub
sbbl $0,%eax
movl $-1,%edx
xorl %eax,%edx
jmp .L007copy
.align 16
.L007copy:
movl 32(%esp,%ebx,4),%esi
movl (%edi,%ebx,4),%ebp
movl %ecx,32(%esp,%ebx,4)
andl %eax,%esi
andl %edx,%ebp
orl %esi,%ebp
movl %ebp,(%edi,%ebx,4)
decl %ebx
jge .L007copy
movl 24(%esp),%esp
movl $1,%eax
popl %edi
popl %esi
popl %ebx
popl %ebp
ret
.size bn_mul_mont,.-.L_bn_mul_mont_begin
.byte 77,111,110,116,103,111,109,101,114,121,32,77,117,108,116,105
.byte 112,108,105,99,97,116,105,111,110,32,102,111,114,32,120,56
.byte 54,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121
.byte 32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46
.byte 111,114,103,62,0
#endif // !defined(OPENSSL_NO_ASM) && defined(OPENSSL_X86) && defined(__ELF__)
|
Vtyeshe/geoai-backend
| 28,780
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/chacha-armv4-linux32.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_ARM) && defined(__ELF__)
@ Silence ARMv8 deprecated IT instruction warnings. This file is used by both
@ ARMv7 and ARMv8 processors and does not use ARMv8 instructions.
.arch armv7-a
.text
#if defined(__thumb2__) || defined(__clang__)
.syntax unified
#endif
#if defined(__thumb2__)
.thumb
#else
.code 32
#endif
#if defined(__thumb2__) || defined(__clang__)
#define ldrhsb ldrbhs
#endif
.align 5
.Lsigma:
.long 0x61707865,0x3320646e,0x79622d32,0x6b206574 @ endian-neutral
.Lone:
.long 1,0,0,0
.globl ChaCha20_ctr32_nohw
.hidden ChaCha20_ctr32_nohw
.type ChaCha20_ctr32_nohw,%function
.align 5
ChaCha20_ctr32_nohw:
ldr r12,[sp,#0] @ pull pointer to counter and nonce
stmdb sp!,{r0,r1,r2,r4-r11,lr}
adr r14,.Lsigma
ldmia r12,{r4,r5,r6,r7} @ load counter and nonce
sub sp,sp,#4*(16) @ off-load area
stmdb sp!,{r4,r5,r6,r7} @ copy counter and nonce
ldmia r3,{r4,r5,r6,r7,r8,r9,r10,r11} @ load key
ldmia r14,{r0,r1,r2,r3} @ load sigma
stmdb sp!,{r4,r5,r6,r7,r8,r9,r10,r11} @ copy key
stmdb sp!,{r0,r1,r2,r3} @ copy sigma
str r10,[sp,#4*(16+10)] @ off-load "rx"
str r11,[sp,#4*(16+11)] @ off-load "rx"
b .Loop_outer_enter
.align 4
.Loop_outer:
ldmia sp,{r0,r1,r2,r3,r4,r5,r6,r7,r8,r9} @ load key material
str r11,[sp,#4*(32+2)] @ save len
str r12, [sp,#4*(32+1)] @ save inp
str r14, [sp,#4*(32+0)] @ save out
.Loop_outer_enter:
ldr r11, [sp,#4*(15)]
ldr r12,[sp,#4*(12)] @ modulo-scheduled load
ldr r10, [sp,#4*(13)]
ldr r14,[sp,#4*(14)]
str r11, [sp,#4*(16+15)]
mov r11,#10
b .Loop
.align 4
.Loop:
subs r11,r11,#1
add r0,r0,r4
mov r12,r12,ror#16
add r1,r1,r5
mov r10,r10,ror#16
eor r12,r12,r0,ror#16
eor r10,r10,r1,ror#16
add r8,r8,r12
mov r4,r4,ror#20
add r9,r9,r10
mov r5,r5,ror#20
eor r4,r4,r8,ror#20
eor r5,r5,r9,ror#20
add r0,r0,r4
mov r12,r12,ror#24
add r1,r1,r5
mov r10,r10,ror#24
eor r12,r12,r0,ror#24
eor r10,r10,r1,ror#24
add r8,r8,r12
mov r4,r4,ror#25
add r9,r9,r10
mov r5,r5,ror#25
str r10,[sp,#4*(16+13)]
ldr r10,[sp,#4*(16+15)]
eor r4,r4,r8,ror#25
eor r5,r5,r9,ror#25
str r8,[sp,#4*(16+8)]
ldr r8,[sp,#4*(16+10)]
add r2,r2,r6
mov r14,r14,ror#16
str r9,[sp,#4*(16+9)]
ldr r9,[sp,#4*(16+11)]
add r3,r3,r7
mov r10,r10,ror#16
eor r14,r14,r2,ror#16
eor r10,r10,r3,ror#16
add r8,r8,r14
mov r6,r6,ror#20
add r9,r9,r10
mov r7,r7,ror#20
eor r6,r6,r8,ror#20
eor r7,r7,r9,ror#20
add r2,r2,r6
mov r14,r14,ror#24
add r3,r3,r7
mov r10,r10,ror#24
eor r14,r14,r2,ror#24
eor r10,r10,r3,ror#24
add r8,r8,r14
mov r6,r6,ror#25
add r9,r9,r10
mov r7,r7,ror#25
eor r6,r6,r8,ror#25
eor r7,r7,r9,ror#25
add r0,r0,r5
mov r10,r10,ror#16
add r1,r1,r6
mov r12,r12,ror#16
eor r10,r10,r0,ror#16
eor r12,r12,r1,ror#16
add r8,r8,r10
mov r5,r5,ror#20
add r9,r9,r12
mov r6,r6,ror#20
eor r5,r5,r8,ror#20
eor r6,r6,r9,ror#20
add r0,r0,r5
mov r10,r10,ror#24
add r1,r1,r6
mov r12,r12,ror#24
eor r10,r10,r0,ror#24
eor r12,r12,r1,ror#24
add r8,r8,r10
mov r5,r5,ror#25
str r10,[sp,#4*(16+15)]
ldr r10,[sp,#4*(16+13)]
add r9,r9,r12
mov r6,r6,ror#25
eor r5,r5,r8,ror#25
eor r6,r6,r9,ror#25
str r8,[sp,#4*(16+10)]
ldr r8,[sp,#4*(16+8)]
add r2,r2,r7
mov r10,r10,ror#16
str r9,[sp,#4*(16+11)]
ldr r9,[sp,#4*(16+9)]
add r3,r3,r4
mov r14,r14,ror#16
eor r10,r10,r2,ror#16
eor r14,r14,r3,ror#16
add r8,r8,r10
mov r7,r7,ror#20
add r9,r9,r14
mov r4,r4,ror#20
eor r7,r7,r8,ror#20
eor r4,r4,r9,ror#20
add r2,r2,r7
mov r10,r10,ror#24
add r3,r3,r4
mov r14,r14,ror#24
eor r10,r10,r2,ror#24
eor r14,r14,r3,ror#24
add r8,r8,r10
mov r7,r7,ror#25
add r9,r9,r14
mov r4,r4,ror#25
eor r7,r7,r8,ror#25
eor r4,r4,r9,ror#25
bne .Loop
ldr r11,[sp,#4*(32+2)] @ load len
str r8, [sp,#4*(16+8)] @ modulo-scheduled store
str r9, [sp,#4*(16+9)]
str r12,[sp,#4*(16+12)]
str r10, [sp,#4*(16+13)]
str r14,[sp,#4*(16+14)]
@ at this point we have first half of 512-bit result in
@ rx and second half at sp+4*(16+8)
cmp r11,#64 @ done yet?
#ifdef __thumb2__
itete lo
#endif
addlo r12,sp,#4*(0) @ shortcut or ...
ldrhs r12,[sp,#4*(32+1)] @ ... load inp
addlo r14,sp,#4*(0) @ shortcut or ...
ldrhs r14,[sp,#4*(32+0)] @ ... load out
ldr r8,[sp,#4*(0)] @ load key material
ldr r9,[sp,#4*(1)]
#if __ARM_ARCH>=6 || !defined(__ARMEB__)
# if __ARM_ARCH<7
orr r10,r12,r14
tst r10,#3 @ are input and output aligned?
ldr r10,[sp,#4*(2)]
bne .Lunaligned
cmp r11,#64 @ restore flags
# else
ldr r10,[sp,#4*(2)]
# endif
ldr r11,[sp,#4*(3)]
add r0,r0,r8 @ accumulate key material
add r1,r1,r9
# ifdef __thumb2__
itt hs
# endif
ldrhs r8,[r12],#16 @ load input
ldrhs r9,[r12,#-12]
add r2,r2,r10
add r3,r3,r11
# ifdef __thumb2__
itt hs
# endif
ldrhs r10,[r12,#-8]
ldrhs r11,[r12,#-4]
# if __ARM_ARCH>=6 && defined(__ARMEB__)
rev r0,r0
rev r1,r1
rev r2,r2
rev r3,r3
# endif
# ifdef __thumb2__
itt hs
# endif
eorhs r0,r0,r8 @ xor with input
eorhs r1,r1,r9
add r8,sp,#4*(4)
str r0,[r14],#16 @ store output
# ifdef __thumb2__
itt hs
# endif
eorhs r2,r2,r10
eorhs r3,r3,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
str r1,[r14,#-12]
str r2,[r14,#-8]
str r3,[r14,#-4]
add r4,r4,r8 @ accumulate key material
add r5,r5,r9
# ifdef __thumb2__
itt hs
# endif
ldrhs r8,[r12],#16 @ load input
ldrhs r9,[r12,#-12]
add r6,r6,r10
add r7,r7,r11
# ifdef __thumb2__
itt hs
# endif
ldrhs r10,[r12,#-8]
ldrhs r11,[r12,#-4]
# if __ARM_ARCH>=6 && defined(__ARMEB__)
rev r4,r4
rev r5,r5
rev r6,r6
rev r7,r7
# endif
# ifdef __thumb2__
itt hs
# endif
eorhs r4,r4,r8
eorhs r5,r5,r9
add r8,sp,#4*(8)
str r4,[r14],#16 @ store output
# ifdef __thumb2__
itt hs
# endif
eorhs r6,r6,r10
eorhs r7,r7,r11
str r5,[r14,#-12]
ldmia r8,{r8,r9,r10,r11} @ load key material
str r6,[r14,#-8]
add r0,sp,#4*(16+8)
str r7,[r14,#-4]
ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half
add r0,r0,r8 @ accumulate key material
add r1,r1,r9
# ifdef __thumb2__
itt hs
# endif
ldrhs r8,[r12],#16 @ load input
ldrhs r9,[r12,#-12]
# ifdef __thumb2__
itt hi
# endif
strhi r10,[sp,#4*(16+10)] @ copy "rx" while at it
strhi r11,[sp,#4*(16+11)] @ copy "rx" while at it
add r2,r2,r10
add r3,r3,r11
# ifdef __thumb2__
itt hs
# endif
ldrhs r10,[r12,#-8]
ldrhs r11,[r12,#-4]
# if __ARM_ARCH>=6 && defined(__ARMEB__)
rev r0,r0
rev r1,r1
rev r2,r2
rev r3,r3
# endif
# ifdef __thumb2__
itt hs
# endif
eorhs r0,r0,r8
eorhs r1,r1,r9
add r8,sp,#4*(12)
str r0,[r14],#16 @ store output
# ifdef __thumb2__
itt hs
# endif
eorhs r2,r2,r10
eorhs r3,r3,r11
str r1,[r14,#-12]
ldmia r8,{r8,r9,r10,r11} @ load key material
str r2,[r14,#-8]
str r3,[r14,#-4]
add r4,r4,r8 @ accumulate key material
add r5,r5,r9
# ifdef __thumb2__
itt hi
# endif
addhi r8,r8,#1 @ next counter value
strhi r8,[sp,#4*(12)] @ save next counter value
# ifdef __thumb2__
itt hs
# endif
ldrhs r8,[r12],#16 @ load input
ldrhs r9,[r12,#-12]
add r6,r6,r10
add r7,r7,r11
# ifdef __thumb2__
itt hs
# endif
ldrhs r10,[r12,#-8]
ldrhs r11,[r12,#-4]
# if __ARM_ARCH>=6 && defined(__ARMEB__)
rev r4,r4
rev r5,r5
rev r6,r6
rev r7,r7
# endif
# ifdef __thumb2__
itt hs
# endif
eorhs r4,r4,r8
eorhs r5,r5,r9
# ifdef __thumb2__
it ne
# endif
ldrne r8,[sp,#4*(32+2)] @ re-load len
# ifdef __thumb2__
itt hs
# endif
eorhs r6,r6,r10
eorhs r7,r7,r11
str r4,[r14],#16 @ store output
str r5,[r14,#-12]
# ifdef __thumb2__
it hs
# endif
subhs r11,r8,#64 @ len-=64
str r6,[r14,#-8]
str r7,[r14,#-4]
bhi .Loop_outer
beq .Ldone
# if __ARM_ARCH<7
b .Ltail
.align 4
.Lunaligned:@ unaligned endian-neutral path
cmp r11,#64 @ restore flags
# endif
#endif
#if __ARM_ARCH<7
ldr r11,[sp,#4*(3)]
add r0,r0,r8 @ accumulate key material
add r1,r1,r9
add r2,r2,r10
# ifdef __thumb2__
itete lo
# endif
eorlo r8,r8,r8 @ zero or ...
ldrhsb r8,[r12],#16 @ ... load input
eorlo r9,r9,r9
ldrhsb r9,[r12,#-12]
add r3,r3,r11
# ifdef __thumb2__
itete lo
# endif
eorlo r10,r10,r10
ldrhsb r10,[r12,#-8]
eorlo r11,r11,r11
ldrhsb r11,[r12,#-4]
eor r0,r8,r0 @ xor with input (or zero)
eor r1,r9,r1
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-15] @ load more input
ldrhsb r9,[r12,#-11]
eor r2,r10,r2
strb r0,[r14],#16 @ store output
eor r3,r11,r3
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-7]
ldrhsb r11,[r12,#-3]
strb r1,[r14,#-12]
eor r0,r8,r0,lsr#8
strb r2,[r14,#-8]
eor r1,r9,r1,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-14] @ load more input
ldrhsb r9,[r12,#-10]
strb r3,[r14,#-4]
eor r2,r10,r2,lsr#8
strb r0,[r14,#-15]
eor r3,r11,r3,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-6]
ldrhsb r11,[r12,#-2]
strb r1,[r14,#-11]
eor r0,r8,r0,lsr#8
strb r2,[r14,#-7]
eor r1,r9,r1,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-13] @ load more input
ldrhsb r9,[r12,#-9]
strb r3,[r14,#-3]
eor r2,r10,r2,lsr#8
strb r0,[r14,#-14]
eor r3,r11,r3,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-5]
ldrhsb r11,[r12,#-1]
strb r1,[r14,#-10]
strb r2,[r14,#-6]
eor r0,r8,r0,lsr#8
strb r3,[r14,#-2]
eor r1,r9,r1,lsr#8
strb r0,[r14,#-13]
eor r2,r10,r2,lsr#8
strb r1,[r14,#-9]
eor r3,r11,r3,lsr#8
strb r2,[r14,#-5]
strb r3,[r14,#-1]
add r8,sp,#4*(4+0)
ldmia r8,{r8,r9,r10,r11} @ load key material
add r0,sp,#4*(16+8)
add r4,r4,r8 @ accumulate key material
add r5,r5,r9
add r6,r6,r10
# ifdef __thumb2__
itete lo
# endif
eorlo r8,r8,r8 @ zero or ...
ldrhsb r8,[r12],#16 @ ... load input
eorlo r9,r9,r9
ldrhsb r9,[r12,#-12]
add r7,r7,r11
# ifdef __thumb2__
itete lo
# endif
eorlo r10,r10,r10
ldrhsb r10,[r12,#-8]
eorlo r11,r11,r11
ldrhsb r11,[r12,#-4]
eor r4,r8,r4 @ xor with input (or zero)
eor r5,r9,r5
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-15] @ load more input
ldrhsb r9,[r12,#-11]
eor r6,r10,r6
strb r4,[r14],#16 @ store output
eor r7,r11,r7
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-7]
ldrhsb r11,[r12,#-3]
strb r5,[r14,#-12]
eor r4,r8,r4,lsr#8
strb r6,[r14,#-8]
eor r5,r9,r5,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-14] @ load more input
ldrhsb r9,[r12,#-10]
strb r7,[r14,#-4]
eor r6,r10,r6,lsr#8
strb r4,[r14,#-15]
eor r7,r11,r7,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-6]
ldrhsb r11,[r12,#-2]
strb r5,[r14,#-11]
eor r4,r8,r4,lsr#8
strb r6,[r14,#-7]
eor r5,r9,r5,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-13] @ load more input
ldrhsb r9,[r12,#-9]
strb r7,[r14,#-3]
eor r6,r10,r6,lsr#8
strb r4,[r14,#-14]
eor r7,r11,r7,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-5]
ldrhsb r11,[r12,#-1]
strb r5,[r14,#-10]
strb r6,[r14,#-6]
eor r4,r8,r4,lsr#8
strb r7,[r14,#-2]
eor r5,r9,r5,lsr#8
strb r4,[r14,#-13]
eor r6,r10,r6,lsr#8
strb r5,[r14,#-9]
eor r7,r11,r7,lsr#8
strb r6,[r14,#-5]
strb r7,[r14,#-1]
add r8,sp,#4*(4+4)
ldmia r8,{r8,r9,r10,r11} @ load key material
ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half
# ifdef __thumb2__
itt hi
# endif
strhi r10,[sp,#4*(16+10)] @ copy "rx"
strhi r11,[sp,#4*(16+11)] @ copy "rx"
add r0,r0,r8 @ accumulate key material
add r1,r1,r9
add r2,r2,r10
# ifdef __thumb2__
itete lo
# endif
eorlo r8,r8,r8 @ zero or ...
ldrhsb r8,[r12],#16 @ ... load input
eorlo r9,r9,r9
ldrhsb r9,[r12,#-12]
add r3,r3,r11
# ifdef __thumb2__
itete lo
# endif
eorlo r10,r10,r10
ldrhsb r10,[r12,#-8]
eorlo r11,r11,r11
ldrhsb r11,[r12,#-4]
eor r0,r8,r0 @ xor with input (or zero)
eor r1,r9,r1
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-15] @ load more input
ldrhsb r9,[r12,#-11]
eor r2,r10,r2
strb r0,[r14],#16 @ store output
eor r3,r11,r3
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-7]
ldrhsb r11,[r12,#-3]
strb r1,[r14,#-12]
eor r0,r8,r0,lsr#8
strb r2,[r14,#-8]
eor r1,r9,r1,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-14] @ load more input
ldrhsb r9,[r12,#-10]
strb r3,[r14,#-4]
eor r2,r10,r2,lsr#8
strb r0,[r14,#-15]
eor r3,r11,r3,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-6]
ldrhsb r11,[r12,#-2]
strb r1,[r14,#-11]
eor r0,r8,r0,lsr#8
strb r2,[r14,#-7]
eor r1,r9,r1,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-13] @ load more input
ldrhsb r9,[r12,#-9]
strb r3,[r14,#-3]
eor r2,r10,r2,lsr#8
strb r0,[r14,#-14]
eor r3,r11,r3,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-5]
ldrhsb r11,[r12,#-1]
strb r1,[r14,#-10]
strb r2,[r14,#-6]
eor r0,r8,r0,lsr#8
strb r3,[r14,#-2]
eor r1,r9,r1,lsr#8
strb r0,[r14,#-13]
eor r2,r10,r2,lsr#8
strb r1,[r14,#-9]
eor r3,r11,r3,lsr#8
strb r2,[r14,#-5]
strb r3,[r14,#-1]
add r8,sp,#4*(4+8)
ldmia r8,{r8,r9,r10,r11} @ load key material
add r4,r4,r8 @ accumulate key material
# ifdef __thumb2__
itt hi
# endif
addhi r8,r8,#1 @ next counter value
strhi r8,[sp,#4*(12)] @ save next counter value
add r5,r5,r9
add r6,r6,r10
# ifdef __thumb2__
itete lo
# endif
eorlo r8,r8,r8 @ zero or ...
ldrhsb r8,[r12],#16 @ ... load input
eorlo r9,r9,r9
ldrhsb r9,[r12,#-12]
add r7,r7,r11
# ifdef __thumb2__
itete lo
# endif
eorlo r10,r10,r10
ldrhsb r10,[r12,#-8]
eorlo r11,r11,r11
ldrhsb r11,[r12,#-4]
eor r4,r8,r4 @ xor with input (or zero)
eor r5,r9,r5
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-15] @ load more input
ldrhsb r9,[r12,#-11]
eor r6,r10,r6
strb r4,[r14],#16 @ store output
eor r7,r11,r7
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-7]
ldrhsb r11,[r12,#-3]
strb r5,[r14,#-12]
eor r4,r8,r4,lsr#8
strb r6,[r14,#-8]
eor r5,r9,r5,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-14] @ load more input
ldrhsb r9,[r12,#-10]
strb r7,[r14,#-4]
eor r6,r10,r6,lsr#8
strb r4,[r14,#-15]
eor r7,r11,r7,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-6]
ldrhsb r11,[r12,#-2]
strb r5,[r14,#-11]
eor r4,r8,r4,lsr#8
strb r6,[r14,#-7]
eor r5,r9,r5,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r8,[r12,#-13] @ load more input
ldrhsb r9,[r12,#-9]
strb r7,[r14,#-3]
eor r6,r10,r6,lsr#8
strb r4,[r14,#-14]
eor r7,r11,r7,lsr#8
# ifdef __thumb2__
itt hs
# endif
ldrhsb r10,[r12,#-5]
ldrhsb r11,[r12,#-1]
strb r5,[r14,#-10]
strb r6,[r14,#-6]
eor r4,r8,r4,lsr#8
strb r7,[r14,#-2]
eor r5,r9,r5,lsr#8
strb r4,[r14,#-13]
eor r6,r10,r6,lsr#8
strb r5,[r14,#-9]
eor r7,r11,r7,lsr#8
strb r6,[r14,#-5]
strb r7,[r14,#-1]
# ifdef __thumb2__
it ne
# endif
ldrne r8,[sp,#4*(32+2)] @ re-load len
# ifdef __thumb2__
it hs
# endif
subhs r11,r8,#64 @ len-=64
bhi .Loop_outer
beq .Ldone
#endif
.Ltail:
ldr r12,[sp,#4*(32+1)] @ load inp
add r9,sp,#4*(0)
ldr r14,[sp,#4*(32+0)] @ load out
.Loop_tail:
ldrb r10,[r9],#1 @ read buffer on stack
ldrb r11,[r12],#1 @ read input
subs r8,r8,#1
eor r11,r11,r10
strb r11,[r14],#1 @ store output
bne .Loop_tail
.Ldone:
add sp,sp,#4*(32+3)
ldmia sp!,{r4,r5,r6,r7,r8,r9,r10,r11,pc}
.size ChaCha20_ctr32_nohw,.-ChaCha20_ctr32_nohw
#if __ARM_MAX_ARCH__>=7
.arch armv7-a
.fpu neon
.globl ChaCha20_ctr32_neon
.hidden ChaCha20_ctr32_neon
.type ChaCha20_ctr32_neon,%function
.align 5
ChaCha20_ctr32_neon:
ldr r12,[sp,#0] @ pull pointer to counter and nonce
stmdb sp!,{r0,r1,r2,r4-r11,lr}
adr r14,.Lsigma
vstmdb sp!,{d8,d9,d10,d11,d12,d13,d14,d15} @ ABI spec says so
stmdb sp!,{r0,r1,r2,r3}
vld1.32 {q1,q2},[r3] @ load key
ldmia r3,{r4,r5,r6,r7,r8,r9,r10,r11} @ load key
sub sp,sp,#4*(16+16)
vld1.32 {q3},[r12] @ load counter and nonce
add r12,sp,#4*8
ldmia r14,{r0,r1,r2,r3} @ load sigma
vld1.32 {q0},[r14]! @ load sigma
vld1.32 {q12},[r14] @ one
vst1.32 {q2,q3},[r12] @ copy 1/2key|counter|nonce
vst1.32 {q0,q1},[sp] @ copy sigma|1/2key
str r10,[sp,#4*(16+10)] @ off-load "rx"
str r11,[sp,#4*(16+11)] @ off-load "rx"
vshl.i32 d26,d24,#1 @ two
vstr d24,[sp,#4*(16+0)]
vshl.i32 d28,d24,#2 @ four
vstr d26,[sp,#4*(16+2)]
vmov q4,q0
vstr d28,[sp,#4*(16+4)]
vmov q8,q0
vmov q5,q1
vmov q9,q1
b .Loop_neon_enter
.align 4
.Loop_neon_outer:
ldmia sp,{r0,r1,r2,r3,r4,r5,r6,r7,r8,r9} @ load key material
cmp r11,#64*2 @ if len<=64*2
bls .Lbreak_neon @ switch to integer-only
vmov q4,q0
str r11,[sp,#4*(32+2)] @ save len
vmov q8,q0
str r12, [sp,#4*(32+1)] @ save inp
vmov q5,q1
str r14, [sp,#4*(32+0)] @ save out
vmov q9,q1
.Loop_neon_enter:
ldr r11, [sp,#4*(15)]
vadd.i32 q7,q3,q12 @ counter+1
ldr r12,[sp,#4*(12)] @ modulo-scheduled load
vmov q6,q2
ldr r10, [sp,#4*(13)]
vmov q10,q2
ldr r14,[sp,#4*(14)]
vadd.i32 q11,q7,q12 @ counter+2
str r11, [sp,#4*(16+15)]
mov r11,#10
add r12,r12,#3 @ counter+3
b .Loop_neon
.align 4
.Loop_neon:
subs r11,r11,#1
vadd.i32 q0,q0,q1
add r0,r0,r4
vadd.i32 q4,q4,q5
mov r12,r12,ror#16
vadd.i32 q8,q8,q9
add r1,r1,r5
veor q3,q3,q0
mov r10,r10,ror#16
veor q7,q7,q4
eor r12,r12,r0,ror#16
veor q11,q11,q8
eor r10,r10,r1,ror#16
vrev32.16 q3,q3
add r8,r8,r12
vrev32.16 q7,q7
mov r4,r4,ror#20
vrev32.16 q11,q11
add r9,r9,r10
vadd.i32 q2,q2,q3
mov r5,r5,ror#20
vadd.i32 q6,q6,q7
eor r4,r4,r8,ror#20
vadd.i32 q10,q10,q11
eor r5,r5,r9,ror#20
veor q12,q1,q2
add r0,r0,r4
veor q13,q5,q6
mov r12,r12,ror#24
veor q14,q9,q10
add r1,r1,r5
vshr.u32 q1,q12,#20
mov r10,r10,ror#24
vshr.u32 q5,q13,#20
eor r12,r12,r0,ror#24
vshr.u32 q9,q14,#20
eor r10,r10,r1,ror#24
vsli.32 q1,q12,#12
add r8,r8,r12
vsli.32 q5,q13,#12
mov r4,r4,ror#25
vsli.32 q9,q14,#12
add r9,r9,r10
vadd.i32 q0,q0,q1
mov r5,r5,ror#25
vadd.i32 q4,q4,q5
str r10,[sp,#4*(16+13)]
vadd.i32 q8,q8,q9
ldr r10,[sp,#4*(16+15)]
veor q12,q3,q0
eor r4,r4,r8,ror#25
veor q13,q7,q4
eor r5,r5,r9,ror#25
veor q14,q11,q8
str r8,[sp,#4*(16+8)]
vshr.u32 q3,q12,#24
ldr r8,[sp,#4*(16+10)]
vshr.u32 q7,q13,#24
add r2,r2,r6
vshr.u32 q11,q14,#24
mov r14,r14,ror#16
vsli.32 q3,q12,#8
str r9,[sp,#4*(16+9)]
vsli.32 q7,q13,#8
ldr r9,[sp,#4*(16+11)]
vsli.32 q11,q14,#8
add r3,r3,r7
vadd.i32 q2,q2,q3
mov r10,r10,ror#16
vadd.i32 q6,q6,q7
eor r14,r14,r2,ror#16
vadd.i32 q10,q10,q11
eor r10,r10,r3,ror#16
veor q12,q1,q2
add r8,r8,r14
veor q13,q5,q6
mov r6,r6,ror#20
veor q14,q9,q10
add r9,r9,r10
vshr.u32 q1,q12,#25
mov r7,r7,ror#20
vshr.u32 q5,q13,#25
eor r6,r6,r8,ror#20
vshr.u32 q9,q14,#25
eor r7,r7,r9,ror#20
vsli.32 q1,q12,#7
add r2,r2,r6
vsli.32 q5,q13,#7
mov r14,r14,ror#24
vsli.32 q9,q14,#7
add r3,r3,r7
vext.8 q2,q2,q2,#8
mov r10,r10,ror#24
vext.8 q6,q6,q6,#8
eor r14,r14,r2,ror#24
vext.8 q10,q10,q10,#8
eor r10,r10,r3,ror#24
vext.8 q1,q1,q1,#4
add r8,r8,r14
vext.8 q5,q5,q5,#4
mov r6,r6,ror#25
vext.8 q9,q9,q9,#4
add r9,r9,r10
vext.8 q3,q3,q3,#12
mov r7,r7,ror#25
vext.8 q7,q7,q7,#12
eor r6,r6,r8,ror#25
vext.8 q11,q11,q11,#12
eor r7,r7,r9,ror#25
vadd.i32 q0,q0,q1
add r0,r0,r5
vadd.i32 q4,q4,q5
mov r10,r10,ror#16
vadd.i32 q8,q8,q9
add r1,r1,r6
veor q3,q3,q0
mov r12,r12,ror#16
veor q7,q7,q4
eor r10,r10,r0,ror#16
veor q11,q11,q8
eor r12,r12,r1,ror#16
vrev32.16 q3,q3
add r8,r8,r10
vrev32.16 q7,q7
mov r5,r5,ror#20
vrev32.16 q11,q11
add r9,r9,r12
vadd.i32 q2,q2,q3
mov r6,r6,ror#20
vadd.i32 q6,q6,q7
eor r5,r5,r8,ror#20
vadd.i32 q10,q10,q11
eor r6,r6,r9,ror#20
veor q12,q1,q2
add r0,r0,r5
veor q13,q5,q6
mov r10,r10,ror#24
veor q14,q9,q10
add r1,r1,r6
vshr.u32 q1,q12,#20
mov r12,r12,ror#24
vshr.u32 q5,q13,#20
eor r10,r10,r0,ror#24
vshr.u32 q9,q14,#20
eor r12,r12,r1,ror#24
vsli.32 q1,q12,#12
add r8,r8,r10
vsli.32 q5,q13,#12
mov r5,r5,ror#25
vsli.32 q9,q14,#12
str r10,[sp,#4*(16+15)]
vadd.i32 q0,q0,q1
ldr r10,[sp,#4*(16+13)]
vadd.i32 q4,q4,q5
add r9,r9,r12
vadd.i32 q8,q8,q9
mov r6,r6,ror#25
veor q12,q3,q0
eor r5,r5,r8,ror#25
veor q13,q7,q4
eor r6,r6,r9,ror#25
veor q14,q11,q8
str r8,[sp,#4*(16+10)]
vshr.u32 q3,q12,#24
ldr r8,[sp,#4*(16+8)]
vshr.u32 q7,q13,#24
add r2,r2,r7
vshr.u32 q11,q14,#24
mov r10,r10,ror#16
vsli.32 q3,q12,#8
str r9,[sp,#4*(16+11)]
vsli.32 q7,q13,#8
ldr r9,[sp,#4*(16+9)]
vsli.32 q11,q14,#8
add r3,r3,r4
vadd.i32 q2,q2,q3
mov r14,r14,ror#16
vadd.i32 q6,q6,q7
eor r10,r10,r2,ror#16
vadd.i32 q10,q10,q11
eor r14,r14,r3,ror#16
veor q12,q1,q2
add r8,r8,r10
veor q13,q5,q6
mov r7,r7,ror#20
veor q14,q9,q10
add r9,r9,r14
vshr.u32 q1,q12,#25
mov r4,r4,ror#20
vshr.u32 q5,q13,#25
eor r7,r7,r8,ror#20
vshr.u32 q9,q14,#25
eor r4,r4,r9,ror#20
vsli.32 q1,q12,#7
add r2,r2,r7
vsli.32 q5,q13,#7
mov r10,r10,ror#24
vsli.32 q9,q14,#7
add r3,r3,r4
vext.8 q2,q2,q2,#8
mov r14,r14,ror#24
vext.8 q6,q6,q6,#8
eor r10,r10,r2,ror#24
vext.8 q10,q10,q10,#8
eor r14,r14,r3,ror#24
vext.8 q1,q1,q1,#12
add r8,r8,r10
vext.8 q5,q5,q5,#12
mov r7,r7,ror#25
vext.8 q9,q9,q9,#12
add r9,r9,r14
vext.8 q3,q3,q3,#4
mov r4,r4,ror#25
vext.8 q7,q7,q7,#4
eor r7,r7,r8,ror#25
vext.8 q11,q11,q11,#4
eor r4,r4,r9,ror#25
bne .Loop_neon
add r11,sp,#32
vld1.32 {q12,q13},[sp] @ load key material
vld1.32 {q14,q15},[r11]
ldr r11,[sp,#4*(32+2)] @ load len
str r8, [sp,#4*(16+8)] @ modulo-scheduled store
str r9, [sp,#4*(16+9)]
str r12,[sp,#4*(16+12)]
str r10, [sp,#4*(16+13)]
str r14,[sp,#4*(16+14)]
@ at this point we have first half of 512-bit result in
@ rx and second half at sp+4*(16+8)
ldr r12,[sp,#4*(32+1)] @ load inp
ldr r14,[sp,#4*(32+0)] @ load out
vadd.i32 q0,q0,q12 @ accumulate key material
vadd.i32 q4,q4,q12
vadd.i32 q8,q8,q12
vldr d24,[sp,#4*(16+0)] @ one
vadd.i32 q1,q1,q13
vadd.i32 q5,q5,q13
vadd.i32 q9,q9,q13
vldr d26,[sp,#4*(16+2)] @ two
vadd.i32 q2,q2,q14
vadd.i32 q6,q6,q14
vadd.i32 q10,q10,q14
vadd.i32 d14,d14,d24 @ counter+1
vadd.i32 d22,d22,d26 @ counter+2
vadd.i32 q3,q3,q15
vadd.i32 q7,q7,q15
vadd.i32 q11,q11,q15
cmp r11,#64*4
blo .Ltail_neon
vld1.8 {q12,q13},[r12]! @ load input
mov r11,sp
vld1.8 {q14,q15},[r12]!
veor q0,q0,q12 @ xor with input
veor q1,q1,q13
vld1.8 {q12,q13},[r12]!
veor q2,q2,q14
veor q3,q3,q15
vld1.8 {q14,q15},[r12]!
veor q4,q4,q12
vst1.8 {q0,q1},[r14]! @ store output
veor q5,q5,q13
vld1.8 {q12,q13},[r12]!
veor q6,q6,q14
vst1.8 {q2,q3},[r14]!
veor q7,q7,q15
vld1.8 {q14,q15},[r12]!
veor q8,q8,q12
vld1.32 {q0,q1},[r11]! @ load for next iteration
veor d25,d25,d25
vldr d24,[sp,#4*(16+4)] @ four
veor q9,q9,q13
vld1.32 {q2,q3},[r11]
veor q10,q10,q14
vst1.8 {q4,q5},[r14]!
veor q11,q11,q15
vst1.8 {q6,q7},[r14]!
vadd.i32 d6,d6,d24 @ next counter value
vldr d24,[sp,#4*(16+0)] @ one
ldmia sp,{r8,r9,r10,r11} @ load key material
add r0,r0,r8 @ accumulate key material
ldr r8,[r12],#16 @ load input
vst1.8 {q8,q9},[r14]!
add r1,r1,r9
ldr r9,[r12,#-12]
vst1.8 {q10,q11},[r14]!
add r2,r2,r10
ldr r10,[r12,#-8]
add r3,r3,r11
ldr r11,[r12,#-4]
# ifdef __ARMEB__
rev r0,r0
rev r1,r1
rev r2,r2
rev r3,r3
# endif
eor r0,r0,r8 @ xor with input
add r8,sp,#4*(4)
eor r1,r1,r9
str r0,[r14],#16 @ store output
eor r2,r2,r10
str r1,[r14,#-12]
eor r3,r3,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
str r2,[r14,#-8]
str r3,[r14,#-4]
add r4,r4,r8 @ accumulate key material
ldr r8,[r12],#16 @ load input
add r5,r5,r9
ldr r9,[r12,#-12]
add r6,r6,r10
ldr r10,[r12,#-8]
add r7,r7,r11
ldr r11,[r12,#-4]
# ifdef __ARMEB__
rev r4,r4
rev r5,r5
rev r6,r6
rev r7,r7
# endif
eor r4,r4,r8
add r8,sp,#4*(8)
eor r5,r5,r9
str r4,[r14],#16 @ store output
eor r6,r6,r10
str r5,[r14,#-12]
eor r7,r7,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
str r6,[r14,#-8]
add r0,sp,#4*(16+8)
str r7,[r14,#-4]
ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half
add r0,r0,r8 @ accumulate key material
ldr r8,[r12],#16 @ load input
add r1,r1,r9
ldr r9,[r12,#-12]
# ifdef __thumb2__
it hi
# endif
strhi r10,[sp,#4*(16+10)] @ copy "rx" while at it
add r2,r2,r10
ldr r10,[r12,#-8]
# ifdef __thumb2__
it hi
# endif
strhi r11,[sp,#4*(16+11)] @ copy "rx" while at it
add r3,r3,r11
ldr r11,[r12,#-4]
# ifdef __ARMEB__
rev r0,r0
rev r1,r1
rev r2,r2
rev r3,r3
# endif
eor r0,r0,r8
add r8,sp,#4*(12)
eor r1,r1,r9
str r0,[r14],#16 @ store output
eor r2,r2,r10
str r1,[r14,#-12]
eor r3,r3,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
str r2,[r14,#-8]
str r3,[r14,#-4]
add r4,r4,r8 @ accumulate key material
add r8,r8,#4 @ next counter value
add r5,r5,r9
str r8,[sp,#4*(12)] @ save next counter value
ldr r8,[r12],#16 @ load input
add r6,r6,r10
add r4,r4,#3 @ counter+3
ldr r9,[r12,#-12]
add r7,r7,r11
ldr r10,[r12,#-8]
ldr r11,[r12,#-4]
# ifdef __ARMEB__
rev r4,r4
rev r5,r5
rev r6,r6
rev r7,r7
# endif
eor r4,r4,r8
# ifdef __thumb2__
it hi
# endif
ldrhi r8,[sp,#4*(32+2)] @ re-load len
eor r5,r5,r9
eor r6,r6,r10
str r4,[r14],#16 @ store output
eor r7,r7,r11
str r5,[r14,#-12]
sub r11,r8,#64*4 @ len-=64*4
str r6,[r14,#-8]
str r7,[r14,#-4]
bhi .Loop_neon_outer
b .Ldone_neon
.align 4
.Lbreak_neon:
@ harmonize NEON and integer-only stack frames: load data
@ from NEON frame, but save to integer-only one; distance
@ between the two is 4*(32+4+16-32)=4*(20).
str r11, [sp,#4*(20+32+2)] @ save len
add r11,sp,#4*(32+4)
str r12, [sp,#4*(20+32+1)] @ save inp
str r14, [sp,#4*(20+32+0)] @ save out
ldr r12,[sp,#4*(16+10)]
ldr r14,[sp,#4*(16+11)]
vldmia r11,{d8,d9,d10,d11,d12,d13,d14,d15} @ fulfill ABI requirement
str r12,[sp,#4*(20+16+10)] @ copy "rx"
str r14,[sp,#4*(20+16+11)] @ copy "rx"
ldr r11, [sp,#4*(15)]
ldr r12,[sp,#4*(12)] @ modulo-scheduled load
ldr r10, [sp,#4*(13)]
ldr r14,[sp,#4*(14)]
str r11, [sp,#4*(20+16+15)]
add r11,sp,#4*(20)
vst1.32 {q0,q1},[r11]! @ copy key
add sp,sp,#4*(20) @ switch frame
vst1.32 {q2,q3},[r11]
mov r11,#10
b .Loop @ go integer-only
.align 4
.Ltail_neon:
cmp r11,#64*3
bhs .L192_or_more_neon
cmp r11,#64*2
bhs .L128_or_more_neon
cmp r11,#64*1
bhs .L64_or_more_neon
add r8,sp,#4*(8)
vst1.8 {q0,q1},[sp]
add r10,sp,#4*(0)
vst1.8 {q2,q3},[r8]
b .Loop_tail_neon
.align 4
.L64_or_more_neon:
vld1.8 {q12,q13},[r12]!
vld1.8 {q14,q15},[r12]!
veor q0,q0,q12
veor q1,q1,q13
veor q2,q2,q14
veor q3,q3,q15
vst1.8 {q0,q1},[r14]!
vst1.8 {q2,q3},[r14]!
beq .Ldone_neon
add r8,sp,#4*(8)
vst1.8 {q4,q5},[sp]
add r10,sp,#4*(0)
vst1.8 {q6,q7},[r8]
sub r11,r11,#64*1 @ len-=64*1
b .Loop_tail_neon
.align 4
.L128_or_more_neon:
vld1.8 {q12,q13},[r12]!
vld1.8 {q14,q15},[r12]!
veor q0,q0,q12
veor q1,q1,q13
vld1.8 {q12,q13},[r12]!
veor q2,q2,q14
veor q3,q3,q15
vld1.8 {q14,q15},[r12]!
veor q4,q4,q12
veor q5,q5,q13
vst1.8 {q0,q1},[r14]!
veor q6,q6,q14
vst1.8 {q2,q3},[r14]!
veor q7,q7,q15
vst1.8 {q4,q5},[r14]!
vst1.8 {q6,q7},[r14]!
beq .Ldone_neon
add r8,sp,#4*(8)
vst1.8 {q8,q9},[sp]
add r10,sp,#4*(0)
vst1.8 {q10,q11},[r8]
sub r11,r11,#64*2 @ len-=64*2
b .Loop_tail_neon
.align 4
.L192_or_more_neon:
vld1.8 {q12,q13},[r12]!
vld1.8 {q14,q15},[r12]!
veor q0,q0,q12
veor q1,q1,q13
vld1.8 {q12,q13},[r12]!
veor q2,q2,q14
veor q3,q3,q15
vld1.8 {q14,q15},[r12]!
veor q4,q4,q12
veor q5,q5,q13
vld1.8 {q12,q13},[r12]!
veor q6,q6,q14
vst1.8 {q0,q1},[r14]!
veor q7,q7,q15
vld1.8 {q14,q15},[r12]!
veor q8,q8,q12
vst1.8 {q2,q3},[r14]!
veor q9,q9,q13
vst1.8 {q4,q5},[r14]!
veor q10,q10,q14
vst1.8 {q6,q7},[r14]!
veor q11,q11,q15
vst1.8 {q8,q9},[r14]!
vst1.8 {q10,q11},[r14]!
beq .Ldone_neon
ldmia sp,{r8,r9,r10,r11} @ load key material
add r0,r0,r8 @ accumulate key material
add r8,sp,#4*(4)
add r1,r1,r9
add r2,r2,r10
add r3,r3,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
add r4,r4,r8 @ accumulate key material
add r8,sp,#4*(8)
add r5,r5,r9
add r6,r6,r10
add r7,r7,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
# ifdef __ARMEB__
rev r0,r0
rev r1,r1
rev r2,r2
rev r3,r3
rev r4,r4
rev r5,r5
rev r6,r6
rev r7,r7
# endif
stmia sp,{r0,r1,r2,r3,r4,r5,r6,r7}
add r0,sp,#4*(16+8)
ldmia r0,{r0,r1,r2,r3,r4,r5,r6,r7} @ load second half
add r0,r0,r8 @ accumulate key material
add r8,sp,#4*(12)
add r1,r1,r9
add r2,r2,r10
add r3,r3,r11
ldmia r8,{r8,r9,r10,r11} @ load key material
add r4,r4,r8 @ accumulate key material
add r8,sp,#4*(8)
add r5,r5,r9
add r4,r4,#3 @ counter+3
add r6,r6,r10
add r7,r7,r11
ldr r11,[sp,#4*(32+2)] @ re-load len
# ifdef __ARMEB__
rev r0,r0
rev r1,r1
rev r2,r2
rev r3,r3
rev r4,r4
rev r5,r5
rev r6,r6
rev r7,r7
# endif
stmia r8,{r0,r1,r2,r3,r4,r5,r6,r7}
add r10,sp,#4*(0)
sub r11,r11,#64*3 @ len-=64*3
.Loop_tail_neon:
ldrb r8,[r10],#1 @ read buffer on stack
ldrb r9,[r12],#1 @ read input
subs r11,r11,#1
eor r8,r8,r9
strb r8,[r14],#1 @ store output
bne .Loop_tail_neon
.Ldone_neon:
add sp,sp,#4*(32+4)
vldmia sp,{d8,d9,d10,d11,d12,d13,d14,d15}
add sp,sp,#4*(16+3)
ldmia sp!,{r4,r5,r6,r7,r8,r9,r10,r11,pc}
.size ChaCha20_ctr32_neon,.-ChaCha20_ctr32_neon
#endif
#endif // !OPENSSL_NO_ASM && defined(OPENSSL_ARM) && defined(__ELF__)
|
Vtyeshe/geoai-backend
| 82,352
|
.cargo/registry/src/index.crates.io-1949cf8c6b5b557f/ring-0.17.13/pregenerated/aesv8-gcm-armv8-linux64.S
|
// This file is generated from a similarly-named Perl script in the BoringSSL
// source tree. Do not edit by hand.
#include <ring-core/asm_base.h>
#if !defined(OPENSSL_NO_ASM) && defined(OPENSSL_AARCH64) && defined(__ELF__)
#if __ARM_MAX_ARCH__ >= 8
.arch armv8-a+crypto
.text
.globl aes_gcm_enc_kernel
.hidden aes_gcm_enc_kernel
.type aes_gcm_enc_kernel,%function
.align 4
aes_gcm_enc_kernel:
AARCH64_SIGN_LINK_REGISTER
stp x29, x30, [sp, #-128]!
mov x29, sp
stp x19, x20, [sp, #16]
mov x16, x4
mov x8, x5
stp x21, x22, [sp, #32]
stp x23, x24, [sp, #48]
stp d8, d9, [sp, #64]
stp d10, d11, [sp, #80]
stp d12, d13, [sp, #96]
stp d14, d15, [sp, #112]
ldr w17, [x8, #240]
add x19, x8, x17, lsl #4 // borrow input_l1 for last key
ldp x13, x14, [x19] // load round N keys
ldr q31, [x19, #-16] // load round N-1 keys
add x4, x0, x1, lsr #3 // end_input_ptr
lsr x5, x1, #3 // byte_len
mov x15, x5
ldp x10, x11, [x16] // ctr96_b64, ctr96_t32
ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible
sub x5, x5, #1 // byte_len - 1
ldr q18, [x8, #0] // load rk0
and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail)
ldr q25, [x8, #112] // load rk7
add x5, x5, x0
lsr x12, x11, #32
fmov d2, x10 // CTR block 2
orr w11, w11, w11
rev w12, w12 // rev_ctr32
fmov d1, x10 // CTR block 1
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 0 - round 0
add w12, w12, #1 // increment rev_ctr32
rev w9, w12 // CTR block 1
fmov d3, x10 // CTR block 3
orr x9, x11, x9, lsl #32 // CTR block 1
add w12, w12, #1 // CTR block 1
ldr q19, [x8, #16] // load rk1
fmov v1.d[1], x9 // CTR block 1
rev w9, w12 // CTR block 2
add w12, w12, #1 // CTR block 2
orr x9, x11, x9, lsl #32 // CTR block 2
ldr q20, [x8, #32] // load rk2
fmov v2.d[1], x9 // CTR block 2
rev w9, w12 // CTR block 3
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 0 - round 1
orr x9, x11, x9, lsl #32 // CTR block 3
fmov v3.d[1], x9 // CTR block 3
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 1 - round 0
ldr q21, [x8, #48] // load rk3
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 0 - round 2
ldr q24, [x8, #96] // load rk6
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 2 - round 0
ldr q23, [x8, #80] // load rk5
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 1 - round 1
ldr q14, [x6, #48] // load h3l | h3h
ext v14.16b, v14.16b, v14.16b, #8
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 3 - round 0
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 2 - round 1
ldr q22, [x8, #64] // load rk4
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 1 - round 2
ldr q13, [x6, #32] // load h2l | h2h
ext v13.16b, v13.16b, v13.16b, #8
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 3 - round 1
ldr q30, [x8, #192] // load rk12
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 2 - round 2
ldr q15, [x6, #80] // load h4l | h4h
ext v15.16b, v15.16b, v15.16b, #8
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 1 - round 3
ldr q29, [x8, #176] // load rk11
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 3 - round 2
ldr q26, [x8, #128] // load rk8
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 2 - round 3
add w12, w12, #1 // CTR block 3
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 0 - round 3
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 3 - round 3
ld1 { v11.16b}, [x3]
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 2 - round 4
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 0 - round 4
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 1 - round 4
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 3 - round 4
cmp x17, #12 // setup flags for AES-128/192/256 check
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 0 - round 5
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 1 - round 5
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 3 - round 5
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 2 - round 5
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 1 - round 6
trn2 v17.2d, v14.2d, v15.2d // h4l | h3l
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 3 - round 6
ldr q27, [x8, #144] // load rk9
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 0 - round 6
ldr q12, [x6] // load h1l | h1h
ext v12.16b, v12.16b, v12.16b, #8
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 2 - round 6
ldr q28, [x8, #160] // load rk10
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 1 - round 7
trn1 v9.2d, v14.2d, v15.2d // h4h | h3h
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 0 - round 7
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 2 - round 7
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 3 - round 7
trn2 v16.2d, v12.2d, v13.2d // h2l | h1l
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 1 - round 8
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 2 - round 8
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 3 - round 8
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 0 - round 8
b.lt .Lenc_finish_first_blocks // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 1 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 2 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 3 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 0 - round 9
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 1 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 2 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 3 - round 10
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 0 - round 10
b.eq .Lenc_finish_first_blocks // branch if AES-192
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 1 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 2 - round 11
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 0 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 3 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 1 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 2 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 0 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 3 - round 12
.Lenc_finish_first_blocks:
cmp x0, x5 // check if we have <= 4 blocks
eor v17.16b, v17.16b, v9.16b // h4k | h3k
aese v2.16b, v31.16b // AES block 2 - round N-1
trn1 v8.2d, v12.2d, v13.2d // h2h | h1h
aese v1.16b, v31.16b // AES block 1 - round N-1
aese v0.16b, v31.16b // AES block 0 - round N-1
aese v3.16b, v31.16b // AES block 3 - round N-1
eor v16.16b, v16.16b, v8.16b // h2k | h1k
b.ge .Lenc_tail // handle tail
ldp x19, x20, [x0, #16] // AES block 1 - load plaintext
rev w9, w12 // CTR block 4
ldp x6, x7, [x0, #0] // AES block 0 - load plaintext
ldp x23, x24, [x0, #48] // AES block 3 - load plaintext
ldp x21, x22, [x0, #32] // AES block 2 - load plaintext
add x0, x0, #64 // AES input_ptr update
eor x19, x19, x13 // AES block 1 - round N low
eor x20, x20, x14 // AES block 1 - round N high
fmov d5, x19 // AES block 1 - mov low
eor x6, x6, x13 // AES block 0 - round N low
eor x7, x7, x14 // AES block 0 - round N high
eor x24, x24, x14 // AES block 3 - round N high
fmov d4, x6 // AES block 0 - mov low
cmp x0, x5 // check if we have <= 8 blocks
fmov v4.d[1], x7 // AES block 0 - mov high
eor x23, x23, x13 // AES block 3 - round N low
eor x21, x21, x13 // AES block 2 - round N low
fmov v5.d[1], x20 // AES block 1 - mov high
fmov d6, x21 // AES block 2 - mov low
add w12, w12, #1 // CTR block 4
orr x9, x11, x9, lsl #32 // CTR block 4
fmov d7, x23 // AES block 3 - mov low
eor x22, x22, x14 // AES block 2 - round N high
fmov v6.d[1], x22 // AES block 2 - mov high
eor v4.16b, v4.16b, v0.16b // AES block 0 - result
fmov d0, x10 // CTR block 4
fmov v0.d[1], x9 // CTR block 4
rev w9, w12 // CTR block 5
add w12, w12, #1 // CTR block 5
eor v5.16b, v5.16b, v1.16b // AES block 1 - result
fmov d1, x10 // CTR block 5
orr x9, x11, x9, lsl #32 // CTR block 5
fmov v1.d[1], x9 // CTR block 5
rev w9, w12 // CTR block 6
st1 { v4.16b}, [x2], #16 // AES block 0 - store result
fmov v7.d[1], x24 // AES block 3 - mov high
orr x9, x11, x9, lsl #32 // CTR block 6
eor v6.16b, v6.16b, v2.16b // AES block 2 - result
st1 { v5.16b}, [x2], #16 // AES block 1 - store result
add w12, w12, #1 // CTR block 6
fmov d2, x10 // CTR block 6
fmov v2.d[1], x9 // CTR block 6
st1 { v6.16b}, [x2], #16 // AES block 2 - store result
rev w9, w12 // CTR block 7
orr x9, x11, x9, lsl #32 // CTR block 7
eor v7.16b, v7.16b, v3.16b // AES block 3 - result
st1 { v7.16b}, [x2], #16 // AES block 3 - store result
b.ge .Lenc_prepretail // do prepretail
.Lenc_main_loop: // main loop start
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free)
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
fmov d3, x10 // CTR block 4k+3
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
fmov v3.d[1], x9 // CTR block 4k+3
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
ldp x23, x24, [x0, #48] // AES block 4k+7 - load plaintext
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
ldp x21, x22, [x0, #32] // AES block 4k+6 - load plaintext
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
eor v4.16b, v4.16b, v11.16b // PRE 1
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
eor x23, x23, x13 // AES block 4k+7 - round N low
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
mov d10, v17.d[1] // GHASH block 4k - mid
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
eor x22, x22, x14 // AES block 4k+6 - round N high
mov d8, v4.d[1] // GHASH block 4k - mid
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free)
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free)
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free)
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
ldp x19, x20, [x0, #16] // AES block 4k+5 - load plaintext
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
mov d4, v7.d[1] // GHASH block 4k+3 - mid
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor x19, x19, x13 // AES block 4k+5 - round N low
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
eor x21, x21, x13 // AES block 4k+6 - round N low
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
movi v8.8b, #0xc2
pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
cmp x17, #12 // setup flags for AES-128/192/256 check
fmov d5, x19 // AES block 4k+5 - mov low
ldp x6, x7, [x0, #0] // AES block 4k+4 - load plaintext
b.lt .Lenc_main_loop_continue // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
b.eq .Lenc_main_loop_continue // branch if AES-192
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
.Lenc_main_loop_continue:
shl d8, d8, #56 // mod_constant
eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid
add w12, w12, #1 // CTR block 4k+3
eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
add x0, x0, #64 // AES input_ptr update
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
rev w9, w12 // CTR block 4k+8
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor x6, x6, x13 // AES block 4k+4 - round N low
eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up
eor x7, x7, x14 // AES block 4k+4 - round N high
fmov d4, x6 // AES block 4k+4 - mov low
orr x9, x11, x9, lsl #32 // CTR block 4k+8
eor v7.16b, v9.16b, v7.16b // MODULO - fold into mid
eor x20, x20, x14 // AES block 4k+5 - round N high
eor x24, x24, x14 // AES block 4k+7 - round N high
add w12, w12, #1 // CTR block 4k+8
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
fmov v4.d[1], x7 // AES block 4k+4 - mov high
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
fmov d7, x23 // AES block 4k+7 - mov low
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
fmov v5.d[1], x20 // AES block 4k+5 - mov high
fmov d6, x21 // AES block 4k+6 - mov low
cmp x0, x5 // .LOOP CONTROL
fmov v6.d[1], x22 // AES block 4k+6 - mov high
pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
eor v4.16b, v4.16b, v0.16b // AES block 4k+4 - result
fmov d0, x10 // CTR block 4k+8
fmov v0.d[1], x9 // CTR block 4k+8
rev w9, w12 // CTR block 4k+9
add w12, w12, #1 // CTR block 4k+9
eor v5.16b, v5.16b, v1.16b // AES block 4k+5 - result
fmov d1, x10 // CTR block 4k+9
orr x9, x11, x9, lsl #32 // CTR block 4k+9
fmov v1.d[1], x9 // CTR block 4k+9
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
rev w9, w12 // CTR block 4k+10
st1 { v4.16b}, [x2], #16 // AES block 4k+4 - store result
orr x9, x11, x9, lsl #32 // CTR block 4k+10
eor v11.16b, v11.16b, v9.16b // MODULO - fold into low
fmov v7.d[1], x24 // AES block 4k+7 - mov high
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
st1 { v5.16b}, [x2], #16 // AES block 4k+5 - store result
add w12, w12, #1 // CTR block 4k+10
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
eor v6.16b, v6.16b, v2.16b // AES block 4k+6 - result
fmov d2, x10 // CTR block 4k+10
st1 { v6.16b}, [x2], #16 // AES block 4k+6 - store result
fmov v2.d[1], x9 // CTR block 4k+10
rev w9, w12 // CTR block 4k+11
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
orr x9, x11, x9, lsl #32 // CTR block 4k+11
eor v7.16b, v7.16b, v3.16b // AES block 4k+7 - result
st1 { v7.16b}, [x2], #16 // AES block 4k+7 - store result
b.lt .Lenc_main_loop
.Lenc_prepretail: // PREPRETAIL
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
rev64 v6.16b, v6.16b // GHASH block 4k+2 (t0, t1, and t2 free)
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
fmov d3, x10 // CTR block 4k+3
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
rev64 v4.16b, v4.16b // GHASH block 4k (only t0 is free)
fmov v3.d[1], x9 // CTR block 4k+3
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
eor v4.16b, v4.16b, v11.16b // PRE 1
rev64 v5.16b, v5.16b // GHASH block 4k+1 (t0 and t1 free)
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
mov d10, v17.d[1] // GHASH block 4k - mid
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
mov d8, v4.d[1] // GHASH block 4k - mid
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
rev64 v7.16b, v7.16b // GHASH block 4k+3 (t0, t1, t2 and t3 free)
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
add w12, w12, #1 // CTR block 4k+3
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
mov d4, v7.d[1] // GHASH block 4k+3 - mid
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
eor v4.8b, v4.8b, v7.8b // GHASH block 4k+3 - mid
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
pmull v4.1q, v4.1d, v16.1d // GHASH block 4k+3 - mid
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
movi v8.8b, #0xc2
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
shl d8, d8, #56 // mod_constant
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+3 - mid
pmull v6.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
cmp x17, #12 // setup flags for AES-128/192/256 check
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
eor v11.16b, v11.16b, v6.16b // GHASH block 4k+3 - low
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor v10.16b, v10.16b, v9.16b // karatsuba tidy up
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
pmull v4.1q, v9.1d, v8.1d
ext v9.16b, v9.16b, v9.16b, #8
eor v10.16b, v10.16b, v11.16b
b.lt .Lenc_finish_prepretail // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
b.eq .Lenc_finish_prepretail // branch if AES-192
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
.Lenc_finish_prepretail:
eor v10.16b, v10.16b, v4.16b
eor v10.16b, v10.16b, v9.16b
pmull v4.1q, v10.1d, v8.1d
ext v10.16b, v10.16b, v10.16b, #8
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
eor v11.16b, v11.16b, v4.16b
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
eor v11.16b, v11.16b, v10.16b
.Lenc_tail: // TAIL
ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag
sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process
ldp x6, x7, [x0], #16 // AES block 4k+4 - load plaintext
eor x6, x6, x13 // AES block 4k+4 - round N low
eor x7, x7, x14 // AES block 4k+4 - round N high
cmp x5, #48
fmov d4, x6 // AES block 4k+4 - mov low
fmov v4.d[1], x7 // AES block 4k+4 - mov high
eor v5.16b, v4.16b, v0.16b // AES block 4k+4 - result
b.gt .Lenc_blocks_more_than_3
cmp x5, #32
mov v3.16b, v2.16b
movi v11.8b, #0
movi v9.8b, #0
sub w12, w12, #1
mov v2.16b, v1.16b
movi v10.8b, #0
b.gt .Lenc_blocks_more_than_2
mov v3.16b, v1.16b
sub w12, w12, #1
cmp x5, #16
b.gt .Lenc_blocks_more_than_1
sub w12, w12, #1
b .Lenc_blocks_less_than_1
.Lenc_blocks_more_than_3: // blocks left > 3
st1 { v5.16b}, [x2], #16 // AES final-3 block - store result
ldp x6, x7, [x0], #16 // AES final-2 block - load input low & high
rev64 v4.16b, v5.16b // GHASH final-3 block
eor x6, x6, x13 // AES final-2 block - round N low
eor v4.16b, v4.16b, v8.16b // feed in partial tag
eor x7, x7, x14 // AES final-2 block - round N high
mov d22, v4.d[1] // GHASH final-3 block - mid
fmov d5, x6 // AES final-2 block - mov low
fmov v5.d[1], x7 // AES final-2 block - mov high
eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid
movi v8.8b, #0 // suppress further partial tag feed in
mov d10, v17.d[1] // GHASH final-3 block - mid
pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low
pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high
pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid
eor v5.16b, v5.16b, v1.16b // AES final-2 block - result
.Lenc_blocks_more_than_2: // blocks left > 2
st1 { v5.16b}, [x2], #16 // AES final-2 block - store result
ldp x6, x7, [x0], #16 // AES final-1 block - load input low & high
rev64 v4.16b, v5.16b // GHASH final-2 block
eor x6, x6, x13 // AES final-1 block - round N low
eor v4.16b, v4.16b, v8.16b // feed in partial tag
fmov d5, x6 // AES final-1 block - mov low
eor x7, x7, x14 // AES final-1 block - round N high
fmov v5.d[1], x7 // AES final-1 block - mov high
movi v8.8b, #0 // suppress further partial tag feed in
pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high
mov d22, v4.d[1] // GHASH final-2 block - mid
pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low
eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid
eor v5.16b, v5.16b, v2.16b // AES final-1 block - result
eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high
pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid
eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low
eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid
.Lenc_blocks_more_than_1: // blocks left > 1
st1 { v5.16b}, [x2], #16 // AES final-1 block - store result
rev64 v4.16b, v5.16b // GHASH final-1 block
ldp x6, x7, [x0], #16 // AES final block - load input low & high
eor v4.16b, v4.16b, v8.16b // feed in partial tag
movi v8.8b, #0 // suppress further partial tag feed in
eor x6, x6, x13 // AES final block - round N low
mov d22, v4.d[1] // GHASH final-1 block - mid
pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high
eor x7, x7, x14 // AES final block - round N high
eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid
eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high
ins v22.d[1], v22.d[0] // GHASH final-1 block - mid
fmov d5, x6 // AES final block - mov low
fmov v5.d[1], x7 // AES final block - mov high
pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid
pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low
eor v5.16b, v5.16b, v3.16b // AES final block - result
eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid
eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low
.Lenc_blocks_less_than_1: // blocks left <= 1
and x1, x1, #127 // bit_length %= 128
mvn x13, xzr // rkN_l = 0xffffffffffffffff
sub x1, x1, #128 // bit_length -= 128
neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128])
ld1 { v18.16b}, [x2] // load existing bytes where the possibly partial last block is to be stored
mvn x14, xzr // rkN_h = 0xffffffffffffffff
and x1, x1, #127 // bit_length %= 128
lsr x14, x14, x1 // rkN_h is mask for top 64b of last block
cmp x1, #64
csel x6, x13, x14, lt
csel x7, x14, xzr, lt
fmov d0, x6 // ctr0b is mask for last block
fmov v0.d[1], x7
and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits
rev64 v4.16b, v5.16b // GHASH final block
eor v4.16b, v4.16b, v8.16b // feed in partial tag
bif v5.16b, v18.16b, v0.16b // insert existing bytes in top end of result before storing
pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high
mov d8, v4.d[1] // GHASH final block - mid
rev w9, w12
pmull v21.1q, v4.1d, v12.1d // GHASH final block - low
eor v9.16b, v9.16b, v20.16b // GHASH final block - high
eor v8.8b, v8.8b, v4.8b // GHASH final block - mid
pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid
eor v11.16b, v11.16b, v21.16b // GHASH final block - low
eor v10.16b, v10.16b, v8.16b // GHASH final block - mid
movi v8.8b, #0xc2
eor v4.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
shl d8, d8, #56 // mod_constant
eor v10.16b, v10.16b, v4.16b // MODULO - karatsuba tidy up
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
pmull v9.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
str w9, [x16, #12] // store the updated counter
st1 { v5.16b}, [x2] // store all 16B
eor v11.16b, v11.16b, v9.16b // MODULO - fold into low
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
mov x0, x15
st1 { v11.16b }, [x3]
ldp x19, x20, [sp, #16]
ldp x21, x22, [sp, #32]
ldp x23, x24, [sp, #48]
ldp d8, d9, [sp, #64]
ldp d10, d11, [sp, #80]
ldp d12, d13, [sp, #96]
ldp d14, d15, [sp, #112]
ldp x29, x30, [sp], #128
AARCH64_VALIDATE_LINK_REGISTER
ret
.size aes_gcm_enc_kernel,.-aes_gcm_enc_kernel
.globl aes_gcm_dec_kernel
.hidden aes_gcm_dec_kernel
.type aes_gcm_dec_kernel,%function
.align 4
aes_gcm_dec_kernel:
AARCH64_SIGN_LINK_REGISTER
stp x29, x30, [sp, #-128]!
mov x29, sp
stp x19, x20, [sp, #16]
mov x16, x4
mov x8, x5
stp x21, x22, [sp, #32]
stp x23, x24, [sp, #48]
stp d8, d9, [sp, #64]
stp d10, d11, [sp, #80]
stp d12, d13, [sp, #96]
stp d14, d15, [sp, #112]
ldr w17, [x8, #240]
add x19, x8, x17, lsl #4 // borrow input_l1 for last key
ldp x13, x14, [x19] // load round N keys
ldr q31, [x19, #-16] // load round N-1 keys
lsr x5, x1, #3 // byte_len
mov x15, x5
ldp x10, x11, [x16] // ctr96_b64, ctr96_t32
ldr q26, [x8, #128] // load rk8
sub x5, x5, #1 // byte_len - 1
ldr q25, [x8, #112] // load rk7
and x5, x5, #0xffffffffffffffc0 // number of bytes to be processed in main loop (at least 1 byte must be handled by tail)
add x4, x0, x1, lsr #3 // end_input_ptr
ldr q24, [x8, #96] // load rk6
lsr x12, x11, #32
ldr q23, [x8, #80] // load rk5
orr w11, w11, w11
ldr q21, [x8, #48] // load rk3
add x5, x5, x0
rev w12, w12 // rev_ctr32
add w12, w12, #1 // increment rev_ctr32
fmov d3, x10 // CTR block 3
rev w9, w12 // CTR block 1
add w12, w12, #1 // CTR block 1
fmov d1, x10 // CTR block 1
orr x9, x11, x9, lsl #32 // CTR block 1
ld1 { v0.16b}, [x16] // special case vector load initial counter so we can start first AES block as quickly as possible
fmov v1.d[1], x9 // CTR block 1
rev w9, w12 // CTR block 2
add w12, w12, #1 // CTR block 2
fmov d2, x10 // CTR block 2
orr x9, x11, x9, lsl #32 // CTR block 2
fmov v2.d[1], x9 // CTR block 2
rev w9, w12 // CTR block 3
orr x9, x11, x9, lsl #32 // CTR block 3
ldr q18, [x8, #0] // load rk0
fmov v3.d[1], x9 // CTR block 3
add w12, w12, #1 // CTR block 3
ldr q22, [x8, #64] // load rk4
ldr q19, [x8, #16] // load rk1
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 0 - round 0
ldr q14, [x6, #48] // load h3l | h3h
ext v14.16b, v14.16b, v14.16b, #8
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 3 - round 0
ldr q15, [x6, #80] // load h4l | h4h
ext v15.16b, v15.16b, v15.16b, #8
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 1 - round 0
ldr q13, [x6, #32] // load h2l | h2h
ext v13.16b, v13.16b, v13.16b, #8
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 2 - round 0
ldr q20, [x8, #32] // load rk2
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 0 - round 1
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 1 - round 1
ld1 { v11.16b}, [x3]
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 2 - round 1
ldr q27, [x8, #144] // load rk9
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 3 - round 1
ldr q30, [x8, #192] // load rk12
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 0 - round 2
ldr q12, [x6] // load h1l | h1h
ext v12.16b, v12.16b, v12.16b, #8
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 2 - round 2
ldr q28, [x8, #160] // load rk10
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 3 - round 2
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 0 - round 3
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 1 - round 2
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 3 - round 3
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 0 - round 4
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 2 - round 3
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 1 - round 3
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 3 - round 4
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 2 - round 4
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 1 - round 4
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 3 - round 5
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 0 - round 5
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 1 - round 5
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 2 - round 5
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 0 - round 6
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 3 - round 6
cmp x17, #12 // setup flags for AES-128/192/256 check
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 1 - round 6
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 2 - round 6
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 0 - round 7
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 1 - round 7
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 3 - round 7
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 0 - round 8
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 2 - round 7
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 3 - round 8
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 1 - round 8
ldr q29, [x8, #176] // load rk11
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 2 - round 8
b.lt .Ldec_finish_first_blocks // branch if AES-128
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 0 - round 9
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 1 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 3 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 2 - round 9
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 0 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 1 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 3 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 2 - round 10
b.eq .Ldec_finish_first_blocks // branch if AES-192
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 0 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 3 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 1 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 2 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 1 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 0 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 2 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 3 - round 12
.Ldec_finish_first_blocks:
cmp x0, x5 // check if we have <= 4 blocks
trn1 v9.2d, v14.2d, v15.2d // h4h | h3h
trn2 v17.2d, v14.2d, v15.2d // h4l | h3l
trn1 v8.2d, v12.2d, v13.2d // h2h | h1h
trn2 v16.2d, v12.2d, v13.2d // h2l | h1l
eor v17.16b, v17.16b, v9.16b // h4k | h3k
aese v1.16b, v31.16b // AES block 1 - round N-1
aese v2.16b, v31.16b // AES block 2 - round N-1
eor v16.16b, v16.16b, v8.16b // h2k | h1k
aese v3.16b, v31.16b // AES block 3 - round N-1
aese v0.16b, v31.16b // AES block 0 - round N-1
b.ge .Ldec_tail // handle tail
ldr q4, [x0, #0] // AES block 0 - load ciphertext
ldr q5, [x0, #16] // AES block 1 - load ciphertext
rev w9, w12 // CTR block 4
eor v0.16b, v4.16b, v0.16b // AES block 0 - result
eor v1.16b, v5.16b, v1.16b // AES block 1 - result
rev64 v5.16b, v5.16b // GHASH block 1
ldr q7, [x0, #48] // AES block 3 - load ciphertext
mov x7, v0.d[1] // AES block 0 - mov high
mov x6, v0.d[0] // AES block 0 - mov low
rev64 v4.16b, v4.16b // GHASH block 0
add w12, w12, #1 // CTR block 4
fmov d0, x10 // CTR block 4
orr x9, x11, x9, lsl #32 // CTR block 4
fmov v0.d[1], x9 // CTR block 4
rev w9, w12 // CTR block 5
add w12, w12, #1 // CTR block 5
mov x19, v1.d[0] // AES block 1 - mov low
orr x9, x11, x9, lsl #32 // CTR block 5
mov x20, v1.d[1] // AES block 1 - mov high
eor x7, x7, x14 // AES block 0 - round N high
eor x6, x6, x13 // AES block 0 - round N low
stp x6, x7, [x2], #16 // AES block 0 - store result
fmov d1, x10 // CTR block 5
ldr q6, [x0, #32] // AES block 2 - load ciphertext
add x0, x0, #64 // AES input_ptr update
fmov v1.d[1], x9 // CTR block 5
rev w9, w12 // CTR block 6
add w12, w12, #1 // CTR block 6
eor x19, x19, x13 // AES block 1 - round N low
orr x9, x11, x9, lsl #32 // CTR block 6
eor x20, x20, x14 // AES block 1 - round N high
stp x19, x20, [x2], #16 // AES block 1 - store result
eor v2.16b, v6.16b, v2.16b // AES block 2 - result
cmp x0, x5 // check if we have <= 8 blocks
b.ge .Ldec_prepretail // do prepretail
.Ldec_main_loop: // main loop start
mov x21, v2.d[0] // AES block 4k+2 - mov low
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
mov x22, v2.d[1] // AES block 4k+2 - mov high
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
fmov d2, x10 // CTR block 4k+6
fmov v2.d[1], x9 // CTR block 4k+6
eor v4.16b, v4.16b, v11.16b // PRE 1
rev w9, w12 // CTR block 4k+7
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
mov x24, v3.d[1] // AES block 4k+3 - mov high
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
mov x23, v3.d[0] // AES block 4k+3 - mov low
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
mov d8, v4.d[1] // GHASH block 4k - mid
fmov d3, x10 // CTR block 4k+7
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
orr x9, x11, x9, lsl #32 // CTR block 4k+7
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
fmov v3.d[1], x9 // CTR block 4k+7
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
eor x22, x22, x14 // AES block 4k+2 - round N high
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
mov d10, v17.d[1] // GHASH block 4k - mid
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
rev64 v6.16b, v6.16b // GHASH block 4k+2
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
eor x21, x21, x13 // AES block 4k+2 - round N low
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
stp x21, x22, [x2], #16 // AES block 4k+2 - store result
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
rev64 v7.16b, v7.16b // GHASH block 4k+3
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
eor x23, x23, x13 // AES block 4k+3 - round N low
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
eor x24, x24, x14 // AES block 4k+3 - round N high
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
add w12, w12, #1 // CTR block 4k+7
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
rev w9, w12 // CTR block 4k+8
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
add w12, w12, #1 // CTR block 4k+8
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
mov d6, v7.d[1] // GHASH block 4k+3 - mid
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
orr x9, x11, x9, lsl #32 // CTR block 4k+8
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
cmp x17, #12 // setup flags for AES-128/192/256 check
eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid
movi v8.8b, #0xc2
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
shl d8, d8, #56 // mod_constant
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
b.lt .Ldec_main_loop_continue // branch if AES-128
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
b.eq .Ldec_main_loop_continue // branch if AES-192
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
.Ldec_main_loop_continue:
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
ldr q4, [x0, #0] // AES block 4k+4 - load ciphertext
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up
ldr q5, [x0, #16] // AES block 4k+5 - load ciphertext
eor v0.16b, v4.16b, v0.16b // AES block 4k+4 - result
stp x23, x24, [x2], #16 // AES block 4k+3 - store result
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
ldr q7, [x0, #48] // AES block 4k+7 - load ciphertext
ldr q6, [x0, #32] // AES block 4k+6 - load ciphertext
mov x7, v0.d[1] // AES block 4k+4 - mov high
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
add x0, x0, #64 // AES input_ptr update
mov x6, v0.d[0] // AES block 4k+4 - mov low
fmov d0, x10 // CTR block 4k+8
fmov v0.d[1], x9 // CTR block 4k+8
pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
eor v1.16b, v5.16b, v1.16b // AES block 4k+5 - result
rev w9, w12 // CTR block 4k+9
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
orr x9, x11, x9, lsl #32 // CTR block 4k+9
cmp x0, x5 // .LOOP CONTROL
add w12, w12, #1 // CTR block 4k+9
eor x6, x6, x13 // AES block 4k+4 - round N low
eor x7, x7, x14 // AES block 4k+4 - round N high
mov x20, v1.d[1] // AES block 4k+5 - mov high
eor v2.16b, v6.16b, v2.16b // AES block 4k+6 - result
eor v11.16b, v11.16b, v8.16b // MODULO - fold into low
mov x19, v1.d[0] // AES block 4k+5 - mov low
fmov d1, x10 // CTR block 4k+9
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
fmov v1.d[1], x9 // CTR block 4k+9
rev w9, w12 // CTR block 4k+10
add w12, w12, #1 // CTR block 4k+10
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
orr x9, x11, x9, lsl #32 // CTR block 4k+10
rev64 v5.16b, v5.16b // GHASH block 4k+5
eor x20, x20, x14 // AES block 4k+5 - round N high
stp x6, x7, [x2], #16 // AES block 4k+4 - store result
eor x19, x19, x13 // AES block 4k+5 - round N low
stp x19, x20, [x2], #16 // AES block 4k+5 - store result
rev64 v4.16b, v4.16b // GHASH block 4k+4
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
b.lt .Ldec_main_loop
.Ldec_prepretail: // PREPRETAIL
ext v11.16b, v11.16b, v11.16b, #8 // PRE 0
mov x21, v2.d[0] // AES block 4k+2 - mov low
eor v3.16b, v7.16b, v3.16b // AES block 4k+3 - result
aese v0.16b, v18.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 0
mov x22, v2.d[1] // AES block 4k+2 - mov high
aese v1.16b, v18.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 0
fmov d2, x10 // CTR block 4k+6
fmov v2.d[1], x9 // CTR block 4k+6
rev w9, w12 // CTR block 4k+7
eor v4.16b, v4.16b, v11.16b // PRE 1
rev64 v6.16b, v6.16b // GHASH block 4k+2
orr x9, x11, x9, lsl #32 // CTR block 4k+7
mov x23, v3.d[0] // AES block 4k+3 - mov low
aese v1.16b, v19.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 1
mov x24, v3.d[1] // AES block 4k+3 - mov high
pmull v11.1q, v4.1d, v15.1d // GHASH block 4k - low
mov d8, v4.d[1] // GHASH block 4k - mid
fmov d3, x10 // CTR block 4k+7
pmull2 v9.1q, v4.2d, v15.2d // GHASH block 4k - high
fmov v3.d[1], x9 // CTR block 4k+7
aese v2.16b, v18.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 0
mov d10, v17.d[1] // GHASH block 4k - mid
aese v0.16b, v19.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 1
eor v8.8b, v8.8b, v4.8b // GHASH block 4k - mid
pmull2 v4.1q, v5.2d, v14.2d // GHASH block 4k+1 - high
aese v2.16b, v19.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 1
rev64 v7.16b, v7.16b // GHASH block 4k+3
aese v3.16b, v18.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 0
pmull v10.1q, v8.1d, v10.1d // GHASH block 4k - mid
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+1 - high
pmull v8.1q, v5.1d, v14.1d // GHASH block 4k+1 - low
aese v3.16b, v19.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 1
mov d4, v5.d[1] // GHASH block 4k+1 - mid
aese v0.16b, v20.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 2
aese v1.16b, v20.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 2
eor v11.16b, v11.16b, v8.16b // GHASH block 4k+1 - low
aese v2.16b, v20.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 2
aese v0.16b, v21.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 3
mov d8, v6.d[1] // GHASH block 4k+2 - mid
aese v3.16b, v20.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 2
eor v4.8b, v4.8b, v5.8b // GHASH block 4k+1 - mid
pmull v5.1q, v6.1d, v13.1d // GHASH block 4k+2 - low
aese v0.16b, v22.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 4
aese v3.16b, v21.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 3
eor v8.8b, v8.8b, v6.8b // GHASH block 4k+2 - mid
pmull v4.1q, v4.1d, v17.1d // GHASH block 4k+1 - mid
aese v0.16b, v23.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 5
eor v11.16b, v11.16b, v5.16b // GHASH block 4k+2 - low
aese v3.16b, v22.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 4
pmull2 v5.1q, v7.2d, v12.2d // GHASH block 4k+3 - high
eor v10.16b, v10.16b, v4.16b // GHASH block 4k+1 - mid
pmull2 v4.1q, v6.2d, v13.2d // GHASH block 4k+2 - high
aese v3.16b, v23.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 5
ins v8.d[1], v8.d[0] // GHASH block 4k+2 - mid
aese v2.16b, v21.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 3
aese v1.16b, v21.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 3
eor v9.16b, v9.16b, v4.16b // GHASH block 4k+2 - high
pmull v4.1q, v7.1d, v12.1d // GHASH block 4k+3 - low
aese v2.16b, v22.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 4
mov d6, v7.d[1] // GHASH block 4k+3 - mid
aese v1.16b, v22.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 4
pmull2 v8.1q, v8.2d, v16.2d // GHASH block 4k+2 - mid
aese v2.16b, v23.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 5
eor v6.8b, v6.8b, v7.8b // GHASH block 4k+3 - mid
aese v1.16b, v23.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 5
aese v3.16b, v24.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 6
eor v10.16b, v10.16b, v8.16b // GHASH block 4k+2 - mid
aese v2.16b, v24.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 6
aese v0.16b, v24.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 6
movi v8.8b, #0xc2
aese v1.16b, v24.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 6
eor v11.16b, v11.16b, v4.16b // GHASH block 4k+3 - low
pmull v6.1q, v6.1d, v16.1d // GHASH block 4k+3 - mid
aese v3.16b, v25.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 7
cmp x17, #12 // setup flags for AES-128/192/256 check
eor v9.16b, v9.16b, v5.16b // GHASH block 4k+3 - high
aese v1.16b, v25.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 7
aese v0.16b, v25.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 7
eor v10.16b, v10.16b, v6.16b // GHASH block 4k+3 - mid
aese v3.16b, v26.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 8
aese v2.16b, v25.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 7
eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
aese v1.16b, v26.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 8
aese v0.16b, v26.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 8
shl d8, d8, #56 // mod_constant
aese v2.16b, v26.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 8
b.lt .Ldec_finish_prepretail // branch if AES-128
aese v1.16b, v27.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 9
aese v2.16b, v27.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 9
aese v3.16b, v27.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 9
aese v0.16b, v27.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 9
aese v2.16b, v28.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 10
aese v3.16b, v28.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 10
aese v0.16b, v28.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 10
aese v1.16b, v28.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 10
b.eq .Ldec_finish_prepretail // branch if AES-192
aese v2.16b, v29.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 11
aese v0.16b, v29.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 11
aese v1.16b, v29.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 11
aese v2.16b, v30.16b
aesmc v2.16b, v2.16b // AES block 4k+6 - round 12
aese v3.16b, v29.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 11
aese v1.16b, v30.16b
aesmc v1.16b, v1.16b // AES block 4k+5 - round 12
aese v0.16b, v30.16b
aesmc v0.16b, v0.16b // AES block 4k+4 - round 12
aese v3.16b, v30.16b
aesmc v3.16b, v3.16b // AES block 4k+7 - round 12
.Ldec_finish_prepretail:
eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
eor x22, x22, x14 // AES block 4k+2 - round N high
eor x23, x23, x13 // AES block 4k+3 - round N low
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
add w12, w12, #1 // CTR block 4k+7
eor x21, x21, x13 // AES block 4k+2 - round N low
pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
eor x24, x24, x14 // AES block 4k+3 - round N high
stp x21, x22, [x2], #16 // AES block 4k+2 - store result
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
stp x23, x24, [x2], #16 // AES block 4k+3 - store result
eor v11.16b, v11.16b, v8.16b // MODULO - fold into low
aese v1.16b, v31.16b // AES block 4k+5 - round N-1
aese v0.16b, v31.16b // AES block 4k+4 - round N-1
aese v3.16b, v31.16b // AES block 4k+7 - round N-1
aese v2.16b, v31.16b // AES block 4k+6 - round N-1
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
.Ldec_tail: // TAIL
sub x5, x4, x0 // main_end_input_ptr is number of bytes left to process
ld1 { v5.16b}, [x0], #16 // AES block 4k+4 - load ciphertext
eor v0.16b, v5.16b, v0.16b // AES block 4k+4 - result
mov x6, v0.d[0] // AES block 4k+4 - mov low
mov x7, v0.d[1] // AES block 4k+4 - mov high
ext v8.16b, v11.16b, v11.16b, #8 // prepare final partial tag
cmp x5, #48
eor x6, x6, x13 // AES block 4k+4 - round N low
eor x7, x7, x14 // AES block 4k+4 - round N high
b.gt .Ldec_blocks_more_than_3
sub w12, w12, #1
mov v3.16b, v2.16b
movi v10.8b, #0
movi v11.8b, #0
cmp x5, #32
movi v9.8b, #0
mov v2.16b, v1.16b
b.gt .Ldec_blocks_more_than_2
sub w12, w12, #1
mov v3.16b, v1.16b
cmp x5, #16
b.gt .Ldec_blocks_more_than_1
sub w12, w12, #1
b .Ldec_blocks_less_than_1
.Ldec_blocks_more_than_3: // blocks left > 3
rev64 v4.16b, v5.16b // GHASH final-3 block
ld1 { v5.16b}, [x0], #16 // AES final-2 block - load ciphertext
stp x6, x7, [x2], #16 // AES final-3 block - store result
mov d10, v17.d[1] // GHASH final-3 block - mid
eor v4.16b, v4.16b, v8.16b // feed in partial tag
eor v0.16b, v5.16b, v1.16b // AES final-2 block - result
mov d22, v4.d[1] // GHASH final-3 block - mid
mov x6, v0.d[0] // AES final-2 block - mov low
mov x7, v0.d[1] // AES final-2 block - mov high
eor v22.8b, v22.8b, v4.8b // GHASH final-3 block - mid
movi v8.8b, #0 // suppress further partial tag feed in
pmull2 v9.1q, v4.2d, v15.2d // GHASH final-3 block - high
pmull v10.1q, v22.1d, v10.1d // GHASH final-3 block - mid
eor x6, x6, x13 // AES final-2 block - round N low
pmull v11.1q, v4.1d, v15.1d // GHASH final-3 block - low
eor x7, x7, x14 // AES final-2 block - round N high
.Ldec_blocks_more_than_2: // blocks left > 2
rev64 v4.16b, v5.16b // GHASH final-2 block
ld1 { v5.16b}, [x0], #16 // AES final-1 block - load ciphertext
eor v4.16b, v4.16b, v8.16b // feed in partial tag
stp x6, x7, [x2], #16 // AES final-2 block - store result
eor v0.16b, v5.16b, v2.16b // AES final-1 block - result
mov d22, v4.d[1] // GHASH final-2 block - mid
pmull v21.1q, v4.1d, v14.1d // GHASH final-2 block - low
pmull2 v20.1q, v4.2d, v14.2d // GHASH final-2 block - high
eor v22.8b, v22.8b, v4.8b // GHASH final-2 block - mid
mov x6, v0.d[0] // AES final-1 block - mov low
mov x7, v0.d[1] // AES final-1 block - mov high
eor v11.16b, v11.16b, v21.16b // GHASH final-2 block - low
movi v8.8b, #0 // suppress further partial tag feed in
pmull v22.1q, v22.1d, v17.1d // GHASH final-2 block - mid
eor v9.16b, v9.16b, v20.16b // GHASH final-2 block - high
eor x6, x6, x13 // AES final-1 block - round N low
eor v10.16b, v10.16b, v22.16b // GHASH final-2 block - mid
eor x7, x7, x14 // AES final-1 block - round N high
.Ldec_blocks_more_than_1: // blocks left > 1
stp x6, x7, [x2], #16 // AES final-1 block - store result
rev64 v4.16b, v5.16b // GHASH final-1 block
ld1 { v5.16b}, [x0], #16 // AES final block - load ciphertext
eor v4.16b, v4.16b, v8.16b // feed in partial tag
movi v8.8b, #0 // suppress further partial tag feed in
mov d22, v4.d[1] // GHASH final-1 block - mid
eor v0.16b, v5.16b, v3.16b // AES final block - result
pmull2 v20.1q, v4.2d, v13.2d // GHASH final-1 block - high
eor v22.8b, v22.8b, v4.8b // GHASH final-1 block - mid
pmull v21.1q, v4.1d, v13.1d // GHASH final-1 block - low
mov x6, v0.d[0] // AES final block - mov low
ins v22.d[1], v22.d[0] // GHASH final-1 block - mid
mov x7, v0.d[1] // AES final block - mov high
pmull2 v22.1q, v22.2d, v16.2d // GHASH final-1 block - mid
eor x6, x6, x13 // AES final block - round N low
eor v11.16b, v11.16b, v21.16b // GHASH final-1 block - low
eor v9.16b, v9.16b, v20.16b // GHASH final-1 block - high
eor v10.16b, v10.16b, v22.16b // GHASH final-1 block - mid
eor x7, x7, x14 // AES final block - round N high
.Ldec_blocks_less_than_1: // blocks left <= 1
and x1, x1, #127 // bit_length %= 128
mvn x14, xzr // rkN_h = 0xffffffffffffffff
sub x1, x1, #128 // bit_length -= 128
mvn x13, xzr // rkN_l = 0xffffffffffffffff
ldp x4, x5, [x2] // load existing bytes we need to not overwrite
neg x1, x1 // bit_length = 128 - #bits in input (in range [1,128])
and x1, x1, #127 // bit_length %= 128
lsr x14, x14, x1 // rkN_h is mask for top 64b of last block
cmp x1, #64
csel x9, x13, x14, lt
csel x10, x14, xzr, lt
fmov d0, x9 // ctr0b is mask for last block
and x6, x6, x9
mov v0.d[1], x10
bic x4, x4, x9 // mask out low existing bytes
rev w9, w12
bic x5, x5, x10 // mask out high existing bytes
orr x6, x6, x4
and x7, x7, x10
orr x7, x7, x5
and v5.16b, v5.16b, v0.16b // possibly partial last block has zeroes in highest bits
rev64 v4.16b, v5.16b // GHASH final block
eor v4.16b, v4.16b, v8.16b // feed in partial tag
pmull v21.1q, v4.1d, v12.1d // GHASH final block - low
mov d8, v4.d[1] // GHASH final block - mid
eor v8.8b, v8.8b, v4.8b // GHASH final block - mid
pmull2 v20.1q, v4.2d, v12.2d // GHASH final block - high
pmull v8.1q, v8.1d, v16.1d // GHASH final block - mid
eor v9.16b, v9.16b, v20.16b // GHASH final block - high
eor v11.16b, v11.16b, v21.16b // GHASH final block - low
eor v10.16b, v10.16b, v8.16b // GHASH final block - mid
movi v8.8b, #0xc2
eor v6.16b, v11.16b, v9.16b // MODULO - karatsuba tidy up
shl d8, d8, #56 // mod_constant
eor v10.16b, v10.16b, v6.16b // MODULO - karatsuba tidy up
pmull v7.1q, v9.1d, v8.1d // MODULO - top 64b align with mid
ext v9.16b, v9.16b, v9.16b, #8 // MODULO - other top alignment
eor v10.16b, v10.16b, v7.16b // MODULO - fold into mid
eor v10.16b, v10.16b, v9.16b // MODULO - fold into mid
pmull v8.1q, v10.1d, v8.1d // MODULO - mid 64b align with low
ext v10.16b, v10.16b, v10.16b, #8 // MODULO - other mid alignment
eor v11.16b, v11.16b, v8.16b // MODULO - fold into low
stp x6, x7, [x2]
str w9, [x16, #12] // store the updated counter
eor v11.16b, v11.16b, v10.16b // MODULO - fold into low
ext v11.16b, v11.16b, v11.16b, #8
rev64 v11.16b, v11.16b
mov x0, x15
st1 { v11.16b }, [x3]
ldp x19, x20, [sp, #16]
ldp x21, x22, [sp, #32]
ldp x23, x24, [sp, #48]
ldp d8, d9, [sp, #64]
ldp d10, d11, [sp, #80]
ldp d12, d13, [sp, #96]
ldp d14, d15, [sp, #112]
ldp x29, x30, [sp], #128
AARCH64_VALIDATE_LINK_REGISTER
ret
.size aes_gcm_dec_kernel,.-aes_gcm_dec_kernel
#endif
#endif // !OPENSSL_NO_ASM && defined(OPENSSL_AARCH64) && defined(__ELF__)
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.